Kategorie: Sicherheit

zum Blog passender Artikel bei Heise.

In den USA wird seit Jahren Software eingesetzt, die anhand verschiedener Faktoren das Rückfallrisiko von Angeklagten berechnen soll. Die funktioniert aber gar nicht so gut und bewertet vor allem Afroamerikaner systematisch zu schlecht.

Precobs wirkt in Zürich auch im zweiten Jahr nicht

Im Herbst 2014 wurde Precobs in Zürich eingeführt. In den ersten Berichten wurden damals ein Rückgang der Einbruchsdelikte von bis zu 30% vermeintlich sofort erreicht. Am Ende war der Erfolg dann auf das Jahr gerechnet statistisch kaum signifikant, da die Zahl der Einbrüche in Zürich insgesamt zurück gegangen ist. In 2015 war Precobs nun ganzjährig im Einsatz, also im Prinzip genug Zeit die ganze Macht der Vorhersagekraft zu entfalten. Halten kann Precobs die Versprechen allerdings nicht.

Lesen Sie weiter

Bei Heise.de gibt es einen Update zur Nutzung von Precobs mit Infos von einem Polizeikongress.

Dort erfährt man das an einer Smartphone App für Precobs gearbeitet wird, aber auch, dass die Erfolge eher klein sind.

[Das System kann] 30 bis 40 Prozent gute Antworten für eng begrenzte Fragen bei Einbruchsserien liefern […]. „Wir stellen für manche Muster fest, dass unsere kriminalistischen Annahmen nicht stimmen. Es gibt immer wieder Enttäuschungen, wenn eine Datenrelation, die wir angenommen haben, nicht funktioniert.“

 

Intrado Beware und der Threat Score

In diesem Beitrag geht es um Intrado Beware, ein System, dass von Sicherheitsbehörden genutzt werden kann um für eine Person eine Threat Score oder Risk Index berechnet. Das System trifft zwar keine Vorhersagen, sondern ist eher ein Tool zu Datenaggregation, dennoch wird es als Predictive Policing beworben. Und letztendlich ist ein Score auch eine Aussagen darüber wie sich eine Person in Gegenwart und Zukunft verhalten wird.

Lesen Sie weiter

Der Guardian berichtet, dass die US-Regierung vor Gericht eingestanden hat predictive analytics einzusetzen um zu bestimmen wer auf die No-Fly-Listen kommt.  In den USA gibt es seit Jahren gerichtliche Auseinandersetzung um diese Listen, da auch immer wieder Menschen das Besteigen eines Flugzeugs verweigert wird, die sich nichts haben zu schulden kommen lassen. Berühmt geworden ist der Fall eines 8-jährigen, der zwar nicht auf einer No-Fly-Liste stand, aber zumindest auf einer, die vor jedem Flug eine Sonderbehandlung mit sich brachte. Im letzten Jahr sind laut Guardian zudem fünf Muslime auf der Liste gelandet, deren „Vergehen“ (nach eigener Aussage) darin bestand, sich geweigert zu haben mit dem FBI zusammen zu arbeiten.

Die genaue Technik ist zwar unbekannt aber es werden immer häufiger Details zur Arbeitsweise bekannt wie und warum Menschen das Fliegen verwehrt wird. Dabei werden offensichtlich häufig nicht (nur) tatsächlich begangenen Straftaten oder verdächtige Aussagen berücksichtigt, sondern eben auch Vermutung darüber angestellt wie gefährlich eine Person sein könnte.

Technisch ist es allerdings wirklich schwierig ein System zu bauen, dass automatisiert Einträge zu dieser Liste hinzufügt. Die Zahl der „falschen“ Einträge (false positives) muss zwangsweise sehr hoch sein, denn wie soll das System auch lernen wer Terrorist_in ist und wer nicht, besonders viele Fälle von denen gelernt werden könnte gibt es ja nicht.

Verhaltenbewertung im Video

Vor einigen Tagen fand ich einen Artikel bei Technology Review, der ein Forschungsprojekt ankündigt das Kampfszenen in Videoaufnahmen erkennen können soll. Die Idee kam mir bekannt vor und dessen Probleme hab ich in einem Artikel zu einem ähnlichen Projekt in England in diesem Blog schon thematisiert. Der TR Artikel bespricht aber nicht „fightcams“ sondern das Projekt adabts das bereits 2013 abgeschlossen wurde. Einige neue Erkenntnisse gibt es daher schon, „Vorhersagen“ können sie das Verhalten allerdings nicht.

Lesen Sie weiter

Copyright © 2021 Anekdoten aus der berechneten Zukunft

Theme von Anders Norén↑ ↑