Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden mi…
> Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen.
> Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
Bild: „Die meisten Straftäter sind eigentlich ziemlich ungefährlich.“
Mister Krisberg, Algorithmen berechnen in den USA, wie gefährlich einzelne
Häftlinge sind. Wenn man diese Entwicklung zurückverfolgt, landet man
irgendwann auch bei Ihrer Forschung als Kriminologe aus den Achtzigern und
Neunzigern. Dabei gelten Sie doch als Gegner solcher Algorithmen.
Barry Krisberg: Kennen Sie den Blues-Sänger Ray Charles?
Klar.
Mein Lieblingssong von Ray Charles heißt: „Look, what they‘ve done to my
song, Ma” Mama, schau dir mal an, was die mit meinem Lied gemacht haben!
Genauso geht es mir und so dürfte es auch Kollegen wie James F. Austin
gehen. Was haben die nur mit unserem Song angestellt?
Ja, was?
Wir haben uns dieses kleine Programm ausgedacht, das ganz okay
funktionierte. Seitdem hat es sich entwickelt – in unterschiedlichste
Richtungen. Es wurde immer schlimmer.
Vielleicht beginnen Sie mal ganz am Anfang. Mit Austin schrieben sie das
Buch „Die Neuerfindung des Jugendstrafrechts”.
Wir wollten Risikoschätzungen ins Justizsystem bringen, damit es fairer
wird. Wir konnten damit nämlich zeigen, dass die meisten Straftäter
eigentlich ziemlich ungefährlich waren. Wir wollten herausfinden: Bleibt
jemand sauber, wenn man ihn auf Kaution rauslässt? Wer würde zur Anhörung
erscheinen? Wer ein Verbrechen begehen? Uns war klar, dass die große
Mehrheit straffrei bleiben würde. Deshalb haben wir uns überlegt: Wenn wir
diese Einsicht möglichst groß machen, werden viele der Gefangenen
freigelassen. Wir zogen also von Bewährungsbehörde zu Bewährungsbehörde,
von Richter zu Richter, um zu zeigen, dass viele Häftlinge ungefährlich
sind.
Wie haben Sie das berechnet?
Das war ganz simpel. Die einzigen Faktoren, die wir einbezogen haben, waren
die Schwere des Verbrechens, die Anzahl früherer Verurteilungen und das
Alter, in dem jemand den ersten Kontakt mit dem System hatte. Das waren die
aussagekräftigsten. Zu den anderen zählten: Drogenabhängigkeit, familiärer
Hintergrund. Unsere Philosophie war: Die Leute sollten allein nach der
Schwere ihrer Tat verurteilt werden. Wir wollten nicht ihren Charakter und
auch nicht ihre Herkunft beurteilen. Das war die Idee. Dann ging alles den
Bach runter.
Erzählen Sie!
Ob jemand ein Drogenproblem hatte, war nicht besonders aussagekräftig. In
der Hälfte der Akten fehlten diese Daten sogar. Die Behörden waren da nicht
so hinterher. Wir wollten, dass die Leute im Gefängnis und die auf
Bewährung bestimmte Dienste angeboten bekommen, nach möglichst objektiven
Kriterien. Wir entwickelten also, und das war unser fataler Fehler,
Instrumente, die die Bedürfnisse der Gefangenen ermitteln sollten.
Aha.
Wir wiesen dabei aber explizit darauf hin, dass diese Instrumente niemals
für Gerichtsurteile oder Bewährungsentscheidungen verwendet werden sollten.
Es ging lediglich darum, dass ein Bewährungshelfer alle wichtigen Faktoren
einbezog, wenn er einen Fall ansah. Wir wollten, dass Fälle ganzheitlich
betrachtet werden. Plötzlich gingen aber viele davon aus, dass unsere
Instrumente, die die Bedürfnisse der Häftlinge ermitteln sollten,
irgendwelche Vorhersagekraft hätten. Dafür gibt es nur überhaupt keinen
Hinweis.
Aber haben Sie nicht selbst gesagt, dass sich manches mit klassischen
Faktoren gut vorhersagen lässt?
Wenn Sie sich die ausgefeiltesten Langzeitstudien ansehen – und die gibt es
nur für Jugendliche – dann erklärt die beste von ihnen 20 Prozent eines
Ausgangs. 80 Prozent sind absolut zufällig. Bei 80 Prozent der Fälle hat
keiner eine Ahnung, was da los war. Und das ist die beste Studie, über
mehrere Jahre, eine riesige Stichprobe. Irgendwann fing jedenfalls jemand
an, diese Instrumente für Vorhersagen über künftige Kriminalität zu
missbrauchen. Einfach so. Von da an wurde es immer schlimmer.
Inwiefern?
Kriminologen betrachteten nicht mehr nur die Bedürfnisse. Sie kamen
plötzlich mit irgendwelchen Persönlichkeitsfaktoren daher. In vielen dieser
Instrumente, die ja mittlerweile oft von privaten Firmen vertrieben werden,
liegt der Fokus jetzt sehr stark auf Persönlichkeitstypen. Das basiert auf
Studien des RAND Institutes, einer amerikanischen Denkfabrik. Das RAND
Institute setzte die Idee einer kriminellen Persönlichkeit in die Welt. Die
Idee also, dass es verschiedene kriminelle Persönlichkeitstypen gibt und
dass Verbrechen gewissermaßen aus Denkfehlern entstehen. Kriminelle haben
demnach eine verkorkste Logik. Man muss also nur prüfen, wie schlimm die
Denkfehler sind und dann entsprechend reagieren. Dann kamen andere
Wissenschaftler auch noch mit kriminogenen Faktoren an. Ich habe keine
Ahnung, was das sein soll. Verbrechen und Verbrecher sind so
unterschiedlich, dass es lächerlich wäre, sich irgendwelche kriminogenen
Faktoren auszudenken. Glauben die wirklich, ein Wall Street-Händler und ein
drogenabhängiger Autodieb hätten denselben Denkfehler? Das ist Quatsch.
Grundsätzlich geht es aber erst einmal um die Einschätzung von Risiken.
Das ist Versicherungslogik, angewandt auf das Justizsystem. Es gibt aber
keine wissenschaftliche Evidenz, die das irgendwie stützt. Kennen Sie die
Idee der großen Lüge?
Die wäre?
Wenn Sie eine Sache nur oft genug wiederholen, werden die Leute es schon
glauben. Wenn Sie also genug Marketing betreiben, brav zu all den
wissenschaftlichen Konferenzen gehen und in Zeitschriften publizieren,
nimmt das nach einer Weile ein Eigenleben an. Wenn Sie mich fragen: Die
meisten dieser Instrumente sind absolut wertlos. Hätte ich was zu sagen,
ich würde sie alle restlos streichen. Aus soziologischer, aus statistischer
Perspektive lässt sich vor allem eins sagen: Am besten lässt sich künftiges
Verhalten vorhersagen, wenn man das aktuelle Verhalten betrachtet. Hält
sich jemand an die Regeln?
Im Gefängnis gelten allerdings andere Regeln als draußen. Wie
aussagekräftig kann das Verhalten drin dann sein?
Es hat sich mittlerweile ja eine ganze Industrie entwickelt. Die Leute
haben kapiert, dass sie aus diesen Instrumenten ein Produkt machen können,
mit Copyright drauf. Manchmal ist das wirklich die reinste Abzocke. Wenn
Sie eines dieser Produkte nutzen, Yasi etwa, für Jugendstraftäter, zahlen
Sie für jeden einzelnen Fall. Wie bei Apple Music kauft man also kein
Produkt, man erwirbt lediglich das Recht, es zu nutzen.
Ihren Kollegen zufolge sind die Ergebnisse statistisch betrachtet
verlässlich.
Die Statistik an sich zweifle ich auch gar nicht an. Wenn Sie Regressionen
rechnen, heißt das doch einfach nur: Je mehr Variable ich hinzufüge,
Verhalten im Knast, Teilnahme an Programmen, Verhältnis zur Familie, desto
näher komme ich der Vorhersage eines individuellen Falles. Der Kern des
Problems ist doch aber: Die Variablen selbst sind völlig unzulänglich und
inakkurat. Wenn Sie sich die Akten ansehen, grauenhaft! Keine psychischen
Faktoren, man weiß nichts über die Süchte der Häftlinge, fast nichts über
ihre Ausbildung. Es fehlen also die Daten, um dem Einzelfall gerecht zu
werden.
Warum kaufen dann alle solche Programme?
Das wurde wirklich aggressiv vermarktet, bei Richtern und
Bewährungsbehörden. Eine Spur Naivität ist vermutlich auch dabei. Alle
wollen das neueste Produkt auf dem Markt kaufen. Es verschafft einem
außerdem politische Deckung. Wenn ich Sie als Vorsitzender einer
Bewährungsbehörde freilasse und Sie stellen etwas an, dann ist das mein
Fehler. Aber wenn Sie einem Computer die Entscheidung überlassen, ist der
Computer schuld. Es gibt also auch einen politischen Antrieb, das zu
fördern. Man kann sich dahinter verstecken.
Viele kritisieren außerdem, dass diese Algorithmen die Diskriminierung
Schwarzer fortsetzen, selbst wenn der Faktor Race gar nicht offiziell
verwendet wird.
Lassen Sie mich mal was zu Race sagen: Jeder Wissenschaftler wird Ihnen
versichern, dass das ein völlig unbedeutender Faktor ist. Race ist eine
Funktion von sozialer Klasse, Ökonomie, von kulturellen Mustern, diverseste
Dinge fließen da ein. Race in Berechnungen zu verwenden, wäre also ein
wirklich grobes Konstrukt. Wir haben für eine Studie mal Akten untersucht,
um herauszufinden, wie akkurat die ethnischen Zuweisungen waren. Können Sie
alles wegschmeißen! Gerade wenn in einem Viertel Asiaten und Latinos
nebeneinander leben. Da ordnete dann ein Polizist die Leute irgendeiner
Rasse zu. Was er ja gar nicht kann. Völliger Irrsinn. Als wir dann die
Zuordnungen mit den Selbstbeschreibungen der Leute verglichen, gab es so
gut wie keine Treffer. Kambodschaner erschienen als Latinos, Philippinos
noch stärker, weil die manchmal spanische Nachnamen haben. Schwarze
ploppten in allen Kategorien hoch. Eine absolut willkürliche Veranstaltung.
Das ist aber nicht alles.
Nein?
Die Algorithmen bestrafen Leute besonders hart, die bei ihrer Tat sehr jung
waren und ein schweres Verbrechen begangen haben. Das Alter bei der ersten
Tat ist ein enorm mächtiger Faktor in den Gleichungen. Die Rückfallquote
sinkt nämlich, je älter man wird. Ein 16-Jähriger kann so wie ein
Erwachsener verurteilt werden. Dem hilft ein Algorithmus überhaupt nicht.
23 Oct 2015
## AUTOREN
Johannes Gernert
## TAGS
Justiz
Algorithmen
Polizei
Statistik
Gefängnis
Kriminalität
Algorithmus
Schwerpunkt Rassismus
Schwerpunkt Überwachung
Polizei
Schwerpunkt Polizeikontrollen in Hamburg
Schwerpunkt Meta
Polizei
Algorithmen
## ARTIKEL ZUM THEMA
Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …
Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines
Menschen herausfinden, ob der straffällig wird. Aber will man das?
Mensch und Maschine: Haben Sie Angst vor Algorithmen?
Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf
ihre Neutralität. Dabei entscheiden sie nicht immer fair.
Berechnung des Alltags: Wir sind Algorithmen-Zombies
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
wir es merken, und machen uns so manipulierbar.
Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit
könne man Leben retten, sagt ein Statistiker.
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.
Algorithmen im Internet: „Die Maschinen entscheiden für uns“
Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
Zeynep Tufekci.
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
Seit Oktober testet die Polizei München eine Software, mit der sich
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
aus.
Rechnergestützte Prognosen: Wie Ihre Zukunft berechnet wird
Jede Menge Daten: Was der Supermarkt, das Smartphone, der Geheimdienst und
die Polizei heute schon über morgen wissen – vier Beispiele.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.