Autor: pilpul

Immer mehr Städte in den USA verbieten aktuell die Nutzung von Facial Recognition, beziehungsweise gibt es Initiativen dagegen.

Im Zuge dessen hat nun auch die Kalifornische Kleinstadt Santa Cruz ein Verbot beschlossen. Das besondere: Das Verbot umfasst nicht nur Gesichtserkennungssoftware sondern auch predictive policing.

Warum mich das nach längere Zeit mal wieder zum posten veranlasst? Santa Cruz war eine der Modellstädte für predictive policing und Vorzeigestadt für predpol. In einem meiner ersten Posts war es auch das Beispiel aus dem Tagesschau-Bericht zum Thema. Das ausgerechnet Santa Cruz, wo die Nutzung von Predpol scheinbar schon 2017 eingestellt wurde, jetzt ganz Abschied von so invasiven und viel kritisierten Techniken nimmt verdeutlicht vielleicht das Zeitenwende für die Polizeiarbeit (zumindest in den USA) ansteht.

Beim 35. Chaos Communication Congress (35C3), dem jährlichen Event des Chaos Computer Clubs, gab es einen aufschlussreichen Vortrag zum Social Credit (aka Social Scoring) System das in China entwickelt wird. Ähnlich wie hier im Blog auch schon berichtet handelt es sich beim „Social Credit“ (noch) nicht um ein universelles Überwachungstool, sondern es werden aktuell verschiedene Systeme evaluiert. Teilweise sehr datenbasierte, wie Sesame Credit, dass vom Mega-Konzern Alibaba entwickelt wird, teilweise aber auch mit Systeme die sich vor allem auf die analoge Welt beziehen und eher disziplinär arbeiten: Man startet mit 1000 Punkten und kriegt für unerwünschtes Verhalten (bei Rot über die Ampel gehen) Abzüge und für erwünschtes (Alten Leuten helfen) Pluspunkte.

Der Vortrag ist auf jeden Fall sehenswert und detailreich. Vor allem auch, weil er erklärt, wie die chinesische Gesellschaft an einigen Stellen anders funktioniert, als man es in Westeuropa gewohnt ist und sich damit anders Voraussetzungen ergeben. Zwar scheint das Ziel schon ein „ganzheitlicher“ Score, der die Vertrauenswürdigkeit einer Person bewerten soll, aber von der Vorgehensweise her unterscheidet es sich wenig von dem was auch bei uns schon Gang und Gäbe ist, nur eben verteilter über Schufa-Scores, Punkte in Flensburg und was auch immer Amazon/Facebook/Google für Kund*innenprofile erstellen.

Hier klicken, um den Inhalt von media.ccc.de anzuzeigen

Browser-Based Scoring

FinTech ist ja so’n Ding gerade. Bei Banken und insbesondere im Kreditwesen wird zwar schon seit den 60er mit Daten und Profilen gearbeitet, die Zukunft vorhersagen wollten1, aber in den letzten Jahren hat das Digitalisierungs-Business hier nochmal einen Zahn zugelegt. Dazu passt eine Studie die vor einigen Wochen erschienen ist die getestet hat  inwiefern Informationen aus dem Browser, bzw. Daten die beim Registrieren in einem Online Shop anfallen, benutzen werden können, um zu berechnen ob Kund*innen ihren Einkauf pünktlich bezahlen werden oder nicht.

Weiterlesen

  1. siehe z.B. Martin Schmitt „Der informationelle Mensch“ in Profile: Interdisziplinäre Beiträge []

Heise.de fasst in einem längeren Artikel das Ende des Hypes um IBM’s AI „Watson“ zusammen.  Vor einigen Jahren hatte das System mit einem Sieg beim Spiel „Jeopardy“ beeindruckt und wurde von IBM seitdem als Wunderwaffe, unter anderem in der Krebstherapie, vermarktet. Wie so oft kann die Realität mit dem Hype nicht mithalten und viele Krankenhäuser haben entweder die Pilotphasen nicht verlängert oder sind später ausgestiegen als sich gezeigt hat, dass die Vorschläge nicht besser waren als die humanoider Kollegen.

Auch scheint die Datenlage ein Problem zu sein. Einerseits scheint die Datenbasis einen Bias zu haben:

Deutsche Krebsmediziner verweisen auf das zusätzliche Problem, dass das System jahrelang mit Daten aus einem US-amerikanischen Krankenhaus für Wohlhabende trainiert worden sei und darauf zugeschnittene Lösungen vorschlage, die nicht immer für den Rest der Welt passten.

Andererseits ist auch die kontinuierliche Pflege der KI mit einem Aufwand verbunden und „die menschlichen Trainer der KI kämen häufig gar nicht nach, die sich rasch ändernden Behandlungsmethoden einzuspeisen.“

Während Watson damit auf’s Abstellgleis gerät zeigt ein Blick in die Heise Meldungen der letzten Wochen, dass die Nutzung von KI in der Diagnose und Therapie noch lange nicht an ihre ende gekommen ist.

15.06.2018: KI: Spricht bald ein Pflege-Avatar mit pflegebedürftigen Menschen?
12.07.2017: Neuronales Netz erkennt Herzinfarkte so gut wie erfahrene Kardiologen
14.08.2018: Deepmind: Künstliche Intelligenz erkennt Augenkrankheiten

Die Berichte sind allerdings wesentlich differenzierter und die Anwendungsgebiete wesentlich spezieller als was für Watson versprochen wurde.

In der Antwort auf eine kleine Anfrage der FDP überrascht das Inneministerium mich mit der Skepsis und Zurückhaltung gegenüber Predictive Policing, die man aus der Politik sonst gerade eher nicht hört.

So heißt es z.B. im Bezug auf die mageren Ergebnisse der Wirksamkeitsstudie in Baden-Würtemberg:

Der Bundesregierung sind die Ergebnisse des Evaluationsberichts bekannt. Diese decken sich tendenziell mit den bisher vorliegenden Erkenntnissen.

Darüber hinaus lernt man vor allem, dass die Bundesregierung die Tests in den Ländern beobachtet und man sich austauscht aber momentan weder eine Vereinheitlichung noch Bundesinitiativen zu dem Thema geplant ins.

Diese Zurückhaltung hat einerseits damit zu tun, das dass solche Software vor allem gegen Wohnungseinbrüche eingesetzt werde, wofür die Bundesbehörden nicht zuständig sind. Allerdings bleibt unklar was genau das Innenministerium unter „Predictive Policing“ versteht, denn der Einsatz von RADAR ist ja druchaus geplant, wird aber nicht erwähnt.

Andererseits macht die Skepsis durchaus Sinn. Eines der ersten Details aus der Kriminalstatistik 2017 ist etwa, dass die Anzahl der Einbrüche Bundesweit um 23% zurückgegangen sind. Mit der handvoll Pilotstudien zu Predictive Policing hat das sicher nichts zu tun.

Noch mehr überrascht hat mich allerdings eine Stellungnahme der Gewerkschaft der Polizei, die sich im Handelsblatt ebenfalls sehr zurückhaltend äußert. Kann aber natürlich auch sein, dass die Skepsis eher interessensgeleitet ist und inspiriert von den aktuellen Debatten über Jobs die durch die Digitalisierung überflüssig werden könnten..

Der schweizerischen Rundfunk bringt heute eine Reportage über die Nutzung von DyRiaS zur Einstufung von Gefährder*innen. Darin auch die Ergebnisse einer bisher unveröffentlichten Studie die zeigt, dass die Software viel zu viele Personen als potentiell hochgefährlich einstuft.

Studienautor Andreas Frei untersuchte darin 60 Männer, die während den Jahren 2000 bis 2012 psychiatrisch begutachtet worden waren. 39 von ihnen attestierte Dyrias im Nachhinein ein hohes Gewaltrisiko ab Stufe «4». Von diesen hatten letztendlich nur elf ein schweres Gewaltdelikt begangen – 28 Prozent. Das bedeutet: Zwei Drittel von denen, die Dyrias als hochgefährlich bezeichnete, schritten nie zur Tat.

Anders als die Software zu Berechnung des Rückfallrisikos die in den USA bei Gericht eingesetzt wird, „entscheidet“ DyRiaS auf Basis der Antworten von Fachpersonal über die zu beurteilende Person.

Risikoberechnung bei Wiederholungstäter*innen

Auf Wired.com fand ich einen interessanter Beitrag zu einer Studie über eine, in den USA, genutzte Software zur Berechnung des Rückfallrisikos von Straftäter*innen. Doe Software wird von Gerichten eingesetzt und Richter*innen nutzen Sie als Informationsquelle, wenn sie Entscheiden ob jemand auf Kaution frei kommen kann, oder eine Strafe zur Bewährung ausgesetzt wird. Die Studie zeigt, dass Laien in etwa genauso gute Einschätzungen liefern wie der Algorithmus.

Weiterlesen

Es gibt jetzt ein Plugin, dass einem Einblicke in Daten geben soll, die Firmen wie Camebridge Analytica aus Facebook Profile berechnen. Die Technik basiert auf dem nun schon etwas älteren Arbeiten zu Facebook Likes und „Big Five“ Persönlichkeitsmerkmalen.

Das Plugin gibt es für Chrome und Firefox unter DataSelfie.it.

 

Evaluation von Precobs in Baden-Würtemberg

Viele Bundesländer haben in den vergangenen Jahren Pilotstudien zu Predictive Policing angekündigt, aber bisher hat man nur wenig darüber erfahren. Für Baden-Württemberg, wo PRECOBS getestet wurde, ist jetzt die erste, wissenschaftliche Begleitstudie erschienen, die Einbruchsmuster erkennen und „vorhersagen“ soll.

Dabei zeigt sich, was sich schon in Zürich angedeutet hat: Der Einfluss der Software auf die absoluten Einbruchszahlen ist gering, es funktioniert, wenn überhaupt, nur in Städten und die Datenqualität ist wichtig, produziert aber auch mehr Arbeit.

Weiterlesen

Wie es scheint arbeitet man beim Taxi-Dienst Uber weiter an der Optimierung von Dynamic Pricing. Schon seit längerem bestimmen dort Angebot und Nachfrage in Echtzeit über die Preise mit darüber wieviel man für eine Strecke bezahlen muss (bzw. dafür bekommt). Uber will mit „surge pricing“ zu Stoßzeiten mehr von den crowdgesourcten Fahrer_innen auf die Straße locken. Kund_innen müssen höhere Preise bezahlen, wenn auch viele andere unterwegs sind, und die Fahrer_innen werden dann auch besser entlohnt, um ihnen einen Anreiz zu bieten.
Wie es scheint hat sich das Unternehmen, dass für seinen aggresiv-expansiv-kapitalistischen Kurs bekannt ist, noch mehr dem BWL Modell der Gesellschaft verschrieben und verlangt jetzt Preise abhängig davon welches Profil sie jemandem zugewiesen haben.
Weiterlesen

Copyright © 2024 Anekdoten aus der berechneten Zukunft

Theme von Anders Norén↑ ↑