Auf der Webseite xethics.com gibt es eine lesenswerte Reportage über Social Scoring  bei dem auch zwei Sprecher von Social Scoring Unternehmen (u.a. Kreditech) zu Wort kommen. Dabei geht es unter anderem auch um das Verständnis der Big Data Unternehmen von sich selbst, eben nicht nur mit Blick in die Vergangenheit zu arbeiten sondern so eine Art algorithmische Glaskugel entworfen zu haben.

Der größte Kritikpunkt an den bestehenden Systemen wie Schufa, Bürgel und Co ist also deren Retroblick: Künftiges Zahlungsverhalten auf Grund von historischem Zahlungsverhalten zu prognostizieren, ergibt ein falsches Bild, da sich Lebensumstände heutzutage sehr schnell ändern können, meinen dazu die Verfechter der neuen Art von Bonitätsauskünften.

In der Praxis werden natürlich trotzdem nur Daten ausgewertet die in der Vergangenheit anfallen um Aussagen über die Zukunft zu treffen. Aber das Selbstverständnis der Social Scorer ist ein anderes.

Etwas widersprüchlich scheint mir aber, das auf der einen Seite behauptet wird, Social Scoring sei diskriminierungsfreier, weil es keine festen diskriminierenden Merkmale gäbe, sondern sich der Score jeden Tag ändern könne.

Sebastian Diemer von Kreditech zeigt sich zuversichtlich: „Grundsätzlich lassen sich Entscheidungen durch Qualität und Quantität der Daten sowie der Effizienz in der Verarbeitungslogik minimieren. Unser Algorithmus lernt selbst, das heißt, er verändert sich permanent. Der Nutzer wird nicht “gebrandmarkt”, er kann es jeden Tag wieder versuchen und bekommt die gleiche Chance wie jeder andere zu genau diesem Zeitpunkt.

Während es an anderer Stelle heißt

“Durch Big Data Analysen wird in Zukunft der Lügner sichtbar!” Weil klar wird, ob er nur erzählt, oder auch lebt.“

Ist es mir nun erlaubt mich jeden Tag anders zu geben, was zu anderen Scores führen kann oder dürfen sich nur die Neuronalen Netzen jeden Tag ändern während ich bitte möglichst integer und konsistent sein sollte?