Anekdoten aus der berechneten Zukunft

Archive (page 1 of 2)

Beim 35. Chaos Communication Congress (35C3), dem jährlichen Event des Chaos Computer Clubs, gab es einen aufschlussreichen Vortrag zum Social Credit (aka Social Scoring) System das in China entwickelt wird. Ähnlich wie hier im Blog auch schon berichtet handelt es sich beim „Social Credit“ (noch) nicht um ein universelles Überwachungstool, sondern es werden aktuell verschiedene Systeme evaluiert. Teilweise sehr datenbasierte, wie Sesame Credit, dass vom Mega-Konzern Alibaba entwickelt wird, teilweise aber auch mit Systeme die sich vor allem auf die analoge Welt beziehen und eher disziplinär arbeiten: Man startet mit 1000 Punkten und kriegt für unerwünschtes Verhalten (bei Rot über die Ampel gehen) Abzüge und für erwünschtes (Alten Leuten helfen) Pluspunkte.

Der Vortrag ist auf jeden Fall sehenswert und detailreich. Vor allem auch, weil er erklärt, wie die chinesische Gesellschaft an einigen Stellen anders funktioniert, als man es in Westeuropa gewohnt ist und sich damit anders Voraussetzungen ergeben. Zwar scheint das Ziel schon ein „ganzheitlicher“ Score, der die Vertrauenswürdigkeit einer Person bewerten soll, aber von der Vorgehensweise her unterscheidet es sich wenig von dem was auch bei uns schon Gang und Gäbe ist, nur eben verteilter über Schufa-Scores, Punkte in Flensburg und was auch immer Amazon/Facebook/Google für Kund*innenprofile erstellen.

klicken, um einen externen Inhalt anzuzeigenn

Heise.de fasst in einem längeren Artikel das Ende des Hypes um IBM’s AI „Watson“ zusammen.  Vor einigen Jahren hatte das System mit einem Sieg beim Spiel „Jeopardy“ beeindruckt und wurde von IBM seitdem als Wunderwaffe, unter anderem in der Krebstherapie, vermarktet. Wie so oft kann die Realität mit dem Hype nicht mithalten und viele Krankenhäuser haben entweder die Pilotphasen nicht verlängert oder sind später ausgestiegen als sich gezeigt hat, dass die Vorschläge nicht besser waren als die humanoider Kollegen.

Auch scheint die Datenlage ein Problem zu sein. Einerseits scheint die Datenbasis einen Bias zu haben:

Deutsche Krebsmediziner verweisen auf das zusätzliche Problem, dass das System jahrelang mit Daten aus einem US-amerikanischen Krankenhaus für Wohlhabende trainiert worden sei und darauf zugeschnittene Lösungen vorschlage, die nicht immer für den Rest der Welt passten.

Andererseits ist auch die kontinuierliche Pflege der KI mit einem Aufwand verbunden und „die menschlichen Trainer der KI kämen häufig gar nicht nach, die sich rasch ändernden Behandlungsmethoden einzuspeisen.“

Während Watson damit auf’s Abstellgleis gerät zeigt ein Blick in die Heise Meldungen der letzten Wochen, dass die Nutzung von KI in der Diagnose und Therapie noch lange nicht an ihre ende gekommen ist.

15.06.2018: KI: Spricht bald ein Pflege-Avatar mit pflegebedürftigen Menschen?
12.07.2017: Neuronales Netz erkennt Herzinfarkte so gut wie erfahrene Kardiologen
14.08.2018: Deepmind: Künstliche Intelligenz erkennt Augenkrankheiten

Die Berichte sind allerdings wesentlich differenzierter und die Anwendungsgebiete wesentlich spezieller als was für Watson versprochen wurde.

In der Antwort auf eine kleine Anfrage der FDP überrascht das Inneministerium mich mit der Skepsis und Zurückhaltung gegenüber Predictive Policing, die man aus der Politik sonst gerade eher nicht hört.

So heißt es z.B. im Bezug auf die mageren Ergebnisse der Wirksamkeitsstudie in Baden-Würtemberg:

Der Bundesregierung sind die Ergebnisse des Evaluationsberichts bekannt. Diese decken sich tendenziell mit den bisher vorliegenden Erkenntnissen.

Darüber hinaus lernt man vor allem, dass die Bundesregierung die Tests in den Ländern beobachtet und man sich austauscht aber momentan weder eine Vereinheitlichung noch Bundesinitiativen zu dem Thema geplant ins.

Diese Zurückhaltung hat einerseits damit zu tun, das dass solche Software vor allem gegen Wohnungseinbrüche eingesetzt werde, wofür die Bundesbehörden nicht zuständig sind. Allerdings bleibt unklar was genau das Innenministerium unter „Predictive Policing“ versteht, denn der Einsatz von RADAR ist ja druchaus geplant, wird aber nicht erwähnt.

Andererseits macht die Skepsis durchaus Sinn. Eines der ersten Details aus der Kriminalstatistik 2017 ist etwa, dass die Anzahl der Einbrüche Bundesweit um 23% zurückgegangen sind. Mit der handvoll Pilotstudien zu Predictive Policing hat das sicher nichts zu tun.

Noch mehr überrascht hat mich allerdings eine Stellungnahme der Gewerkschaft der Polizei, die sich im Handelsblatt ebenfalls sehr zurückhaltend äußert. Kann aber natürlich auch sein, dass die Skepsis eher interessensgeleitet ist und inspiriert von den aktuellen Debatten über Jobs die durch die Digitalisierung überflüssig werden könnten..

Wie es scheint arbeitet man beim Taxi-Dienst Uber weiter an der Optimierung von Dynamic Pricing. Schon seit längerem bestimmen dort Angebot und Nachfrage in Echtzeit über die Preise mit darüber wieviel man für eine Strecke bezahlen muss (bzw. dafür bekommt). Uber will mit „surge pricing“ zu Stoßzeiten mehr von den crowdgesourcten Fahrer_innen auf die Straße locken. Kund_innen müssen höhere Preise bezahlen, wenn auch viele andere unterwegs sind, und die Fahrer_innen werden dann auch besser entlohnt, um ihnen einen Anreiz zu bieten.
Wie es scheint hat sich das Unternehmen, dass für seinen aggresiv-expansiv-kapitalistischen Kurs bekannt ist, noch mehr dem BWL Modell der Gesellschaft verschrieben und verlangt jetzt Preise abhängig davon welches Profil sie jemandem zugewiesen haben.
Lesen Sie weiter

Nach drei Jahren hat die 70.000 Einwohner_innen Stadt Mipitas in Kalifornien ihren Vertrag mit Predpol aufgelöst. Als Grund wir unter anderem angeführt, dass sich ein Programm in einer Stadt dieser Größe nicht lohne und die internen Prozesse ausreichend genau seien.

„It was our experience that we often did not have sufficient staff to post officers at PredPol-identified locations and still remain responsive to priority calls for service,“ Pangelinan said.

He added his police force discovered that within Milpitas‘ approximately 14 square miles the „existing internal processes of tracking crime and identifying potential areas of exposure were often more accurate than results received from PredPol.“ (Zitiert von govtech.com, 14.07.2016)

Wie auch in anderen Städten war die Anzahl der Straften nach Einführung von Predpol erst rückläufig, dann normalisierten sich die Zahlen aber. Insgesamt rechtfertige der Effekt die Kosten aber nicht.

Wie auch in den meisten anderen Städten bestätigt sich scheinbar auch für München die wie wenig Nachhaltig Precobs sich auf die Rückgänge bei den Einbrüchen auswirkt.

Manchmal muss man unumstößliche Wahrheiten in die Tonne treten, weil sie umstößlich geworden sind und gestoßen werden müssen. Man nehme die Super-Vorhersagesoftware Precobs, deren Einsatz in München dazu führte, dass 2015 in den von Precobs überwachten Gebieten 25 bis 30 Prozent weniger Einbrüche passierten. Fantastisch? Nun sind die Halbjahreszahlen von 2016 da und im aktuellen gedruckten Behördenspiegel beklagt ein Polizeigewerkschaftler das satte Plus von 30 Prozent bei den Einbrüchen in München. Hat man im Vertrauen auf das „Predictive Policing“ die Belegschaft reduziert? Ist die Software wirkungslos geworden? Macht nichts, der Folgeauftrag, die Software zu optimieren, ist so gut wie sicher. Die prinzipielle Wirksamkeit ist ja „bewiesen“. (heise online vom 10.07.2016)

Bei Heise.de gibt es einen Update zur Nutzung von Precobs mit Infos von einem Polizeikongress.

Dort erfährt man das an einer Smartphone App für Precobs gearbeitet wird, aber auch, dass die Erfolge eher klein sind.

[Das System kann] 30 bis 40 Prozent gute Antworten für eng begrenzte Fragen bei Einbruchsserien liefern […]. „Wir stellen für manche Muster fest, dass unsere kriminalistischen Annahmen nicht stimmen. Es gibt immer wieder Enttäuschungen, wenn eine Datenrelation, die wir angenommen haben, nicht funktioniert.“

 

Der Guardian berichtet, dass die US-Regierung vor Gericht eingestanden hat predictive analytics einzusetzen um zu bestimmen wer auf die No-Fly-Listen kommt.  In den USA gibt es seit Jahren gerichtliche Auseinandersetzung um diese Listen, da auch immer wieder Menschen das Besteigen eines Flugzeugs verweigert wird, die sich nichts haben zu schulden kommen lassen. Berühmt geworden ist der Fall eines 8-jährigen, der zwar nicht auf einer No-Fly-Liste stand, aber zumindest auf einer, die vor jedem Flug eine Sonderbehandlung mit sich brachte. Im letzten Jahr sind laut Guardian zudem fünf Muslime auf der Liste gelandet, deren „Vergehen“ (nach eigener Aussage) darin bestand, sich geweigert zu haben mit dem FBI zusammen zu arbeiten.

Die genaue Technik ist zwar unbekannt aber es werden immer häufiger Details zur Arbeitsweise bekannt wie und warum Menschen das Fliegen verwehrt wird. Dabei werden offensichtlich häufig nicht (nur) tatsächlich begangenen Straftaten oder verdächtige Aussagen berücksichtigt, sondern eben auch Vermutung darüber angestellt wie gefährlich eine Person sein könnte.

Technisch ist es allerdings wirklich schwierig ein System zu bauen, dass automatisiert Einträge zu dieser Liste hinzufügt. Die Zahl der „falschen“ Einträge (false positives) muss zwangsweise sehr hoch sein, denn wie soll das System auch lernen wer Terrorist_in ist und wer nicht, besonders viele Fälle von denen gelernt werden könnte gibt es ja nicht.

Baseball ist nicht nur der ersten data-driven Sport (sieh Moneyball), sondern jetzt auch der ersten bei dem die Teams auch auf einem virtuellen zweiten Spielfeld gegeneinander antreten.

Wie jetzt bekannt wurde hat ein amerikantisches Baseballteam ein anderes „gehackt“, um an die interne Daten zu kommen. Dazu gehören laut New York Times nicht nur Gesundheits- und Transferinformationen zu Spielern sondern auch Statistiken der Scouts und die Gewichtungen nach denen die ganzen Daten ausgewertet werden.

Lesen Sie weiter

In einem ausführlichen Artikel widmete sich Ende Mai David Brown dem Nutzen der tatsächlich angewendeten Epedemievorhersagen, wie sie im vergangenen Jahr während der Ebole-Krise genutzt wurden.

In aller Kürze kann man festhalten, dass insbesondere die Modelle zur Vorhersage der Ausbreitung von Ebola falsch lagen, und alles viel zu schwarz gesehen haben. Da will man natürlich draus gelernt und in Zukunft – vor allem mit noch mehr Daten – besser werden. Es wird, also nicht die eine Datenquelle sein, wie die hier besprochenen CDR, sein, die die Berechnungen leitet, sondern, eher im Sinne der sehr komplexen Klimamodellrechnungen, wird versucht möglichst viele Faktoren mit einzuberechnen.

“It really set off alarm bells.”
(Richard Hattchet von der Biomedical Advanced Research and Development Authority, zitiert nach David Brown )

Trotzdem wird der Einsatz der Modelle von einigen Beteiligten als Positiv gewertet. Interessanterweise aber eben weil sie dramatische Zahlen lieferten. Deren Effekt war dann nicht unbedingt bessere Planbarkeit, sondern dass die Notwendigkeit überhaupt zu Handeln, stieg.

 

ältestenBeiträge

Copyright © 2020 Anekdoten aus der berechneten Zukunft

Theme von Anders Norén↑ ↑