Das die predictive policing Software PredPol nicht besonders gut funktioniert wussten wir ja schon. Nun hat die Human Rights Data Analysis Group Predpol unter die Lupe genommen und den Algorithmus exemplarisch auf Drogendelikte und Verhaftungen in Oakland angewendet. Die Ergebnisse sind in einer kurzen Studie veröffentlicht worden und zeigen: Predpol übernimmt die gleichen rassistischen Tendenzen wie die „reguläre“ Polizeiarbeit. Es sagt Drogenkriminalität auch überwiegend in Gegenden mit schwarzer Bevölkerung vorher, dabei zeigen andere Zahlen, dass der Anteil von Drogenkonsumten_innen dort gar keinen besondere Signifikanz hat.

Der Fehler liegt darin, dass Predpol Daten früherer Jahre analysiert und darauf aufbauend in die Zukunft projiziert. Die Polizei in Oakland hat allerdings einen racial bias im Bezug auf Festnahmen wegen Drogenbesitzes, weil Bezirke mit mehr afro-amerikanische Bevolkerung dort „over-policied, d.h. es gibt eine stärkere Polizeipräsenz, gibt es auch mehr Festnahmen in diesem Zusammenhang. Das Problem ist bekannt und das Feedback zwischen mehr Festnahmen -> mehr Polizeipräsenz -> mehr Festnahmen auch ohne predictive policing schon ein Problem. Predpol übernimmt diese Tendenzen aus den Daten und objektiviert. Predpol behauptet immerhin neutral zu sein, weil es keine Daten über Ethnien verarbeitet.

In einem Artikel der über die Forschung berichtet kommt auch ein Sprecher von PredPol zu Wort der anmerkt, dass aus genau diesem Grund PredPol nicht zur Vorhersage von Drogendelikten genutzt werden. Da ist es doch ein lustiger Zufall, dass in meinem ersten Beitrag zu PredPol von 2013 in einem Video von Tageschau.de bei einer Festnahme (eines weißen) Drogen gefunden wurden, auch wenn Predpol nur den Ort vorhergesagt hat.