Links

Immer mehr Städte in den USA verbieten aktuell die Nutzung von Facial Recognition, beziehungsweise gibt es Initiativen dagegen.

Im Zuge dessen hat nun auch die Kalifornische Kleinstadt Santa Cruz ein Verbot beschlossen. Das besondere: Das Verbot umfasst nicht nur Gesichtserkennungssoftware sondern auch predictive policing.

Warum mich das nach längere Zeit mal wieder zum posten veranlasst? Santa Cruz war eine der Modellstädte für predictive policing und Vorzeigestadt für predpol. In einem meiner ersten Posts war es auch das Beispiel aus dem Tagesschau-Bericht zum Thema. Das ausgerechnet Santa Cruz, wo die Nutzung von Predpol scheinbar schon 2017 eingestellt wurde, jetzt ganz Abschied von so invasiven und viel kritisierten Techniken nimmt verdeutlicht vielleicht das Zeitenwende für die Polizeiarbeit (zumindest in den USA) ansteht.

Der schweizerischen Rundfunk bringt heute eine Reportage über die Nutzung von DyRiaS zur Einstufung von Gefährder*innen. Darin auch die Ergebnisse einer bisher unveröffentlichten Studie die zeigt, dass die Software viel zu viele Personen als potentiell hochgefährlich einstuft.

Studienautor Andreas Frei untersuchte darin 60 Männer, die während den Jahren 2000 bis 2012 psychiatrisch begutachtet worden waren. 39 von ihnen attestierte Dyrias im Nachhinein ein hohes Gewaltrisiko ab Stufe «4». Von diesen hatten letztendlich nur elf ein schweres Gewaltdelikt begangen – 28 Prozent. Das bedeutet: Zwei Drittel von denen, die Dyrias als hochgefährlich bezeichnete, schritten nie zur Tat.

Anders als die Software zu Berechnung des Rückfallrisikos die in den USA bei Gericht eingesetzt wird, „entscheidet“ DyRiaS auf Basis der Antworten von Fachpersonal über die zu beurteilende Person.

Es gibt jetzt ein Plugin, dass einem Einblicke in Daten geben soll, die Firmen wie Camebridge Analytica aus Facebook Profile berechnen. Die Technik basiert auf dem nun schon etwas älteren Arbeiten zu Facebook Likes und „Big Five“ Persönlichkeitsmerkmalen.

Das Plugin gibt es für Chrome und Firefox unter DataSelfie.it.

 

zum Blog passender Artikel bei Heise.

In den USA wird seit Jahren Software eingesetzt, die anhand verschiedener Faktoren das Rückfallrisiko von Angeklagten berechnen soll. Die funktioniert aber gar nicht so gut und bewertet vor allem Afroamerikaner systematisch zu schlecht.

Die Wettervorhersage ist ja per Definition in die Zukunft gerichtet, aber nicht besonders gut. Wann die Sonne wo stehen wird, ist dagegen relativ leicht zu bestimmen. Jetzt gibt’s ein Amteuerfotografie-Update: Die Vorhersage schöner Sonnenunter- und aufgänge. Erstmal allerdings nur für die USA.

Gefunden bei: nj.com

In einem kurzen Beitrag in der Finanical Times (hier nicht-paywalled zusammengefasst) wurde wieder über Social Scoring für die Berechnung der Kreditwürdigkeit berichtet.

Es scheint als wären auch amerikanische Scoring-Unternehmen noch eher an den „klassischen“ Werten interessiert und schätzen Personen die nicht häufig umziehen (andernfalls könnte das auf Probleme mit der Miethöhe hinweisen) und ihre Rechnungen zügig bezahlen. Aber auch dort würde man gerne mehr über eben jene Leute wissen, für die sich mit den klassischen Methoden nichts berechnen lässt, weil einfach keine Daten vorliegen. Viel zitiert wurde daher die Aussage das man auch Facebook-Profile beobachtet, und etwa Menschen die häufig posten das irgendwer oder irgendwas „wasted“ ist. Umgangsprachlich übersetzt es sich mit „besoffen“. Das Sprache meist mehrdeutig ist, ist für den Score erstmal egal.

“If you look at how many times a person says ‘wasted’ in their profile, it has some value in predicting whether they’re going to repay their debt,” Will Lansing, chief executive at credit rating company FICO „It’s not much, but it’s more than zero.“

 

 

In einem der clickbaiting Beiträge im SpiegelOnline-Panorama-Teil wird mit einigen kleinen Mythen aufgeräumt, die in der Urlaubszeit zum Thema „Einbrüche“ wieder Verbreitung finden. Einige der Mythen finden sich auch immer wieder in den Reden der Politiker_innen die sich für Predictive Policing, insbesondere PRECOBS, einsetzen.

Weiterlesen

Es finden sich immer noch mehr Jubelbeiträge zu PRECOBS in meinem Newsreader, ohne das es etwas neues zu berichten gäbe. Der Wunsch danach, dass Predictive Policing funktioniert, ist scheinbar so stark, das man nicht abwarten kann ob es denn auch wirklich hilft.

In den USA, wo Software wie PredPol – das einen wesentlich breiteren Einsatzbereich hat als PRECOBS – schon länger eingesetzt wird, ist man über den Glauben an die Wunderwaffe bereits hinaus. Ein Artikel über den erfolgreichen Kampf der Polizei von LA gegen Drogenkriminalität stellt ganz gut dar, dass es wesentlich mehr Faktoren gibt als nur die richtige Vorhersagesoftware. Vielmehr ist dort eine kontinuierliche Arbeit mit den Communities  gepaart rechtlichen Änderungen und einer strukturellen Änderung der Drogenwirtschaft Grund für die erfolgreiche Senkung z.B. der Mordraten. Letzteres meint dabei interessanterweise nicht eine Reduzierung des Drogenkonsums sondern vor allem eine „Professionalisierung“ der organisierten Kriminalität, die weniger Interesse daran hat wegen hoher Mordraten im Fokus der Polizeiarbeit zu stehen.

 

Kleiner Linknachtrag zum letzten Beitrag: Bei Dradio Wissen lief ein Beitrag über einen Testversuch mit einer Gesundheitsapp in Deutschland bei der AOK-Nordost bereits im Mai.  Im August gab es dann noch ein gutes Interview mit Thilo Weichert dazu. Vor einigen Tagen wurde es auch nochmal besprochen, ich finde den Beitrag aber nicht mehr wieder. Grundtenor war, dass u.a. die niedrigen Zinsen am Finanzmarkt die Krankenkassen dazu bewegen sich neue Geschäftsfelder zu erschließen, was zu Investitionen in Projekte wie die Gesundheitsapps führt. Neben dem Hippnessfaktor Quantified Self ist die ökonomische Perspektive hier also eine weitere Antriebskraft, die zur „ursprünglichen“ Idee der Prävention hinzukommt.

Das Wallstreet Journal berichtet über ein Update des Google Flu Trend Algorithmus. Der ist, wie hier beschrieben, als Big Data Paradebeispiel etwas in Verruf geraten, ein Update soll es nun richten. Leider will Google keine Details bekannt geben – Forscher_innen wüssten gerne auf welchen Suchbegriffen sich die Analysen stütze . Google will sich aber jetzt stärker auf die Daten der Gesundheitsbehörde beziehen und außerdem dem Overfitting entgegenwirken indem stärker zwischen Suchen aus reinem Interesse und solchen mit tatsächlichen Symptomen unterscheiden.

Wahrscheinlich wird bei denen die die Sprachsuche benutzen mitgezählt wie oft sie während des Suchvorgangs niesen oder so.

 

Copyright © 2024 Anekdoten aus der berechneten Zukunft

Theme von Anders Norén↑ ↑