Bei Deutschlandradio gab’s Anfang Juni einen Radiobeitrag zu Predictive Policing der empfehlenswert ist. Er gibt einen Überblick über die Forschungsbereiche der automatisierten und präventiven Polizeiarbeit und dem Alltag in einer Polizeieinheit die Lagebilder erstellt. In NRW soll eben solche Software zum Einsatz kommen, um Einbrüche aufzuklären.

Erwähung findet unter anderem, dass viel kritisierte INDECT Projekt, aber auch PROACTIVE und andere Forschungsbereiche von Videoanalyse über automatisierte Gesichtserkennung und Social Media Auswertungen. Dabei werden auch jeweils schön die (technischen) Grenzen aufgezeigt und es wird deutlich, dass da noch viel zu tun ist.

Unterschieden werden im groben solche Verfahren die orts- und tatbezogen funktionieren: „Wo werden die meisten Fahrräder geklaut?“ oder „Welche Eigenschaften haben die meisten Fahrradiebstähle gemeinsam?“ (z.B. Nachts). Nur die wenigsten arbeiten Täter_innen-bezogen also etwa mit Profiling. Lustig ist dieses etwas missverständliche Zitat welcher Zeitraum alles zu „präventiv“ gehört:

Präventiv heißt da erst mal die Idee: Ein Algorithmus kann in Echtzeit erkennen, dass zum Beispiel eine Schlägerei passiert.

Im ersten Moment war ich zudem entschlossen wie naiv die interviewten Informatiker_innen klingen, die nicht nur den Fehler begehen Datenspuren (wie die Handy-Metadaten) mit einer Person gleichzusetzen sondern auch ein ziemlich normativ Verständnis von normalen und abnormalen Verhalten zu haben. Tatsächlich handelt es sich dabei aber nicht um Entiwckler_innen eben von Predictive Policing Anwendungen sondern zum Beispiel eine Netzpolitik Autorin, die wohl auch eher aus zweiter Hand berichtet. Im Grunde fassen die letzten Absätze die Kritik ganz gut zusammen

Jens Hälterlein: „In die Programmierung dieser Systeme gehen immer Normalitätsvorstellungen ein. Über Kriminalität und abweichendes Verhalten, normales Verhalten. Das können Vorstellungen sein, die ad hoc definiert werden. Aber auch Vorstellungen, die aus empirischen Daten extrahiert werden. Das ist aber auch nicht objektiv, weil diese Daten nie alle Kontexte, Situationen abbilden, sondern ein Datensatz immer ein Ausschnitt der Wirklichkeit ist.“

Wie verhält man sich normalerweise im Park oder auf einem Bahnhof? Was unterscheidet einen Überfall von einer Umarmung oder einen Hilfe- von einem Freudenschrei? Anhand welcher Wörter und Wortverbindungen erkennt man valide, wie radikal jemand welche politische Überzeugung vertritt?

Scharloth: „Da gibt’s viel zu wenig Forschung dazu. Weil es ist viel bequemer zu sagen: Wir haben große Datenmengen und wir finden darin Muster. ..Es gibt noch keine Forschungsethik von social big data. Aber: sobald Strafregime dahinter stecken, die Rechte einschränken können, wenn Identitäten zugeschrieben werden, auf der Basis von solchen Analysen, dann muss man sich schon fragen: was ist erlaubt, was ist nicht erlaubt, wann kann man eine Aussage machen, wann kann man keine Aussage machen.“