# taz.de -- Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden mi… | |
> Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. | |
> Im Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
Bild: „Die meisten Straftäter sind eigentlich ziemlich ungefährlich.“ | |
Mister Krisberg, Algorithmen berechnen in den USA, wie gefährlich einzelne | |
Häftlinge sind. Wenn man diese Entwicklung zurückverfolgt, landet man | |
irgendwann auch bei Ihrer Forschung als Kriminologe aus den Achtzigern und | |
Neunzigern. Dabei gelten Sie doch als Gegner solcher Algorithmen. | |
Barry Krisberg: Kennen Sie den Blues-Sänger Ray Charles? | |
Klar. | |
Mein Lieblingssong von Ray Charles heißt: „Look, what they‘ve done to my | |
song, Ma” Mama, schau dir mal an, was die mit meinem Lied gemacht haben! | |
Genauso geht es mir und so dürfte es auch Kollegen wie James F. Austin | |
gehen. Was haben die nur mit unserem Song angestellt? | |
Ja, was? | |
Wir haben uns dieses kleine Programm ausgedacht, das ganz okay | |
funktionierte. Seitdem hat es sich entwickelt – in unterschiedlichste | |
Richtungen. Es wurde immer schlimmer. | |
Vielleicht beginnen Sie mal ganz am Anfang. Mit Austin schrieben sie das | |
Buch „Die Neuerfindung des Jugendstrafrechts”. | |
Wir wollten Risikoschätzungen ins Justizsystem bringen, damit es fairer | |
wird. Wir konnten damit nämlich zeigen, dass die meisten Straftäter | |
eigentlich ziemlich ungefährlich waren. Wir wollten herausfinden: Bleibt | |
jemand sauber, wenn man ihn auf Kaution rauslässt? Wer würde zur Anhörung | |
erscheinen? Wer ein Verbrechen begehen? Uns war klar, dass die große | |
Mehrheit straffrei bleiben würde. Deshalb haben wir uns überlegt: Wenn wir | |
diese Einsicht möglichst groß machen, werden viele der Gefangenen | |
freigelassen. Wir zogen also von Bewährungsbehörde zu Bewährungsbehörde, | |
von Richter zu Richter, um zu zeigen, dass viele Häftlinge ungefährlich | |
sind. | |
Wie haben Sie das berechnet? | |
Das war ganz simpel. Die einzigen Faktoren, die wir einbezogen haben, waren | |
die Schwere des Verbrechens, die Anzahl früherer Verurteilungen und das | |
Alter, in dem jemand den ersten Kontakt mit dem System hatte. Das waren die | |
aussagekräftigsten. Zu den anderen zählten: Drogenabhängigkeit, familiärer | |
Hintergrund. Unsere Philosophie war: Die Leute sollten allein nach der | |
Schwere ihrer Tat verurteilt werden. Wir wollten nicht ihren Charakter und | |
auch nicht ihre Herkunft beurteilen. Das war die Idee. Dann ging alles den | |
Bach runter. | |
Erzählen Sie! | |
Ob jemand ein Drogenproblem hatte, war nicht besonders aussagekräftig. In | |
der Hälfte der Akten fehlten diese Daten sogar. Die Behörden waren da nicht | |
so hinterher. Wir wollten, dass die Leute im Gefängnis und die auf | |
Bewährung bestimmte Dienste angeboten bekommen, nach möglichst objektiven | |
Kriterien. Wir entwickelten also, und das war unser fataler Fehler, | |
Instrumente, die die Bedürfnisse der Gefangenen ermitteln sollten. | |
Aha. | |
Wir wiesen dabei aber explizit darauf hin, dass diese Instrumente niemals | |
für Gerichtsurteile oder Bewährungsentscheidungen verwendet werden sollten. | |
Es ging lediglich darum, dass ein Bewährungshelfer alle wichtigen Faktoren | |
einbezog, wenn er einen Fall ansah. Wir wollten, dass Fälle ganzheitlich | |
betrachtet werden. Plötzlich gingen aber viele davon aus, dass unsere | |
Instrumente, die die Bedürfnisse der Häftlinge ermitteln sollten, | |
irgendwelche Vorhersagekraft hätten. Dafür gibt es nur überhaupt keinen | |
Hinweis. | |
Aber haben Sie nicht selbst gesagt, dass sich manches mit klassischen | |
Faktoren gut vorhersagen lässt? | |
Wenn Sie sich die ausgefeiltesten Langzeitstudien ansehen – und die gibt es | |
nur für Jugendliche – dann erklärt die beste von ihnen 20 Prozent eines | |
Ausgangs. 80 Prozent sind absolut zufällig. Bei 80 Prozent der Fälle hat | |
keiner eine Ahnung, was da los war. Und das ist die beste Studie, über | |
mehrere Jahre, eine riesige Stichprobe. Irgendwann fing jedenfalls jemand | |
an, diese Instrumente für Vorhersagen über künftige Kriminalität zu | |
missbrauchen. Einfach so. Von da an wurde es immer schlimmer. | |
Inwiefern? | |
Kriminologen betrachteten nicht mehr nur die Bedürfnisse. Sie kamen | |
plötzlich mit irgendwelchen Persönlichkeitsfaktoren daher. In vielen dieser | |
Instrumente, die ja mittlerweile oft von privaten Firmen vertrieben werden, | |
liegt der Fokus jetzt sehr stark auf Persönlichkeitstypen. Das basiert auf | |
Studien des RAND Institutes, einer amerikanischen Denkfabrik. Das RAND | |
Institute setzte die Idee einer kriminellen Persönlichkeit in die Welt. Die | |
Idee also, dass es verschiedene kriminelle Persönlichkeitstypen gibt und | |
dass Verbrechen gewissermaßen aus Denkfehlern entstehen. Kriminelle haben | |
demnach eine verkorkste Logik. Man muss also nur prüfen, wie schlimm die | |
Denkfehler sind und dann entsprechend reagieren. Dann kamen andere | |
Wissenschaftler auch noch mit kriminogenen Faktoren an. Ich habe keine | |
Ahnung, was das sein soll. Verbrechen und Verbrecher sind so | |
unterschiedlich, dass es lächerlich wäre, sich irgendwelche kriminogenen | |
Faktoren auszudenken. Glauben die wirklich, ein Wall Street-Händler und ein | |
drogenabhängiger Autodieb hätten denselben Denkfehler? Das ist Quatsch. | |
Grundsätzlich geht es aber erst einmal um die Einschätzung von Risiken. | |
Das ist Versicherungslogik, angewandt auf das Justizsystem. Es gibt aber | |
keine wissenschaftliche Evidenz, die das irgendwie stützt. Kennen Sie die | |
Idee der großen Lüge? | |
Die wäre? | |
Wenn Sie eine Sache nur oft genug wiederholen, werden die Leute es schon | |
glauben. Wenn Sie also genug Marketing betreiben, brav zu all den | |
wissenschaftlichen Konferenzen gehen und in Zeitschriften publizieren, | |
nimmt das nach einer Weile ein Eigenleben an. Wenn Sie mich fragen: Die | |
meisten dieser Instrumente sind absolut wertlos. Hätte ich was zu sagen, | |
ich würde sie alle restlos streichen. Aus soziologischer, aus statistischer | |
Perspektive lässt sich vor allem eins sagen: Am besten lässt sich künftiges | |
Verhalten vorhersagen, wenn man das aktuelle Verhalten betrachtet. Hält | |
sich jemand an die Regeln? | |
Im Gefängnis gelten allerdings andere Regeln als draußen. Wie | |
aussagekräftig kann das Verhalten drin dann sein? | |
Es hat sich mittlerweile ja eine ganze Industrie entwickelt. Die Leute | |
haben kapiert, dass sie aus diesen Instrumenten ein Produkt machen können, | |
mit Copyright drauf. Manchmal ist das wirklich die reinste Abzocke. Wenn | |
Sie eines dieser Produkte nutzen, Yasi etwa, für Jugendstraftäter, zahlen | |
Sie für jeden einzelnen Fall. Wie bei Apple Music kauft man also kein | |
Produkt, man erwirbt lediglich das Recht, es zu nutzen. | |
Ihren Kollegen zufolge sind die Ergebnisse statistisch betrachtet | |
verlässlich. | |
Die Statistik an sich zweifle ich auch gar nicht an. Wenn Sie Regressionen | |
rechnen, heißt das doch einfach nur: Je mehr Variable ich hinzufüge, | |
Verhalten im Knast, Teilnahme an Programmen, Verhältnis zur Familie, desto | |
näher komme ich der Vorhersage eines individuellen Falles. Der Kern des | |
Problems ist doch aber: Die Variablen selbst sind völlig unzulänglich und | |
inakkurat. Wenn Sie sich die Akten ansehen, grauenhaft! Keine psychischen | |
Faktoren, man weiß nichts über die Süchte der Häftlinge, fast nichts über | |
ihre Ausbildung. Es fehlen also die Daten, um dem Einzelfall gerecht zu | |
werden. | |
Warum kaufen dann alle solche Programme? | |
Das wurde wirklich aggressiv vermarktet, bei Richtern und | |
Bewährungsbehörden. Eine Spur Naivität ist vermutlich auch dabei. Alle | |
wollen das neueste Produkt auf dem Markt kaufen. Es verschafft einem | |
außerdem politische Deckung. Wenn ich Sie als Vorsitzender einer | |
Bewährungsbehörde freilasse und Sie stellen etwas an, dann ist das mein | |
Fehler. Aber wenn Sie einem Computer die Entscheidung überlassen, ist der | |
Computer schuld. Es gibt also auch einen politischen Antrieb, das zu | |
fördern. Man kann sich dahinter verstecken. | |
Viele kritisieren außerdem, dass diese Algorithmen die Diskriminierung | |
Schwarzer fortsetzen, selbst wenn der Faktor Race gar nicht offiziell | |
verwendet wird. | |
Lassen Sie mich mal was zu Race sagen: Jeder Wissenschaftler wird Ihnen | |
versichern, dass das ein völlig unbedeutender Faktor ist. Race ist eine | |
Funktion von sozialer Klasse, Ökonomie, von kulturellen Mustern, diverseste | |
Dinge fließen da ein. Race in Berechnungen zu verwenden, wäre also ein | |
wirklich grobes Konstrukt. Wir haben für eine Studie mal Akten untersucht, | |
um herauszufinden, wie akkurat die ethnischen Zuweisungen waren. Können Sie | |
alles wegschmeißen! Gerade wenn in einem Viertel Asiaten und Latinos | |
nebeneinander leben. Da ordnete dann ein Polizist die Leute irgendeiner | |
Rasse zu. Was er ja gar nicht kann. Völliger Irrsinn. Als wir dann die | |
Zuordnungen mit den Selbstbeschreibungen der Leute verglichen, gab es so | |
gut wie keine Treffer. Kambodschaner erschienen als Latinos, Philippinos | |
noch stärker, weil die manchmal spanische Nachnamen haben. Schwarze | |
ploppten in allen Kategorien hoch. Eine absolut willkürliche Veranstaltung. | |
Das ist aber nicht alles. | |
Nein? | |
Die Algorithmen bestrafen Leute besonders hart, die bei ihrer Tat sehr jung | |
waren und ein schweres Verbrechen begangen haben. Das Alter bei der ersten | |
Tat ist ein enorm mächtiger Faktor in den Gleichungen. Die Rückfallquote | |
sinkt nämlich, je älter man wird. Ein 16-Jähriger kann so wie ein | |
Erwachsener verurteilt werden. Dem hilft ein Algorithmus überhaupt nicht. | |
23 Oct 2015 | |
## AUTOREN | |
Johannes Gernert | |
## TAGS | |
Justiz | |
Algorithmen | |
Polizei | |
Statistik | |
Gefängnis | |
Kriminalität | |
Algorithmus | |
Schwerpunkt Rassismus | |
Schwerpunkt Überwachung | |
Polizei | |
Schwerpunkt Polizeikontrollen in Hamburg | |
Schwerpunkt Meta | |
Polizei | |
Algorithmen | |
## ARTIKEL ZUM THEMA | |
Algorithmen und Kriminalität: Er wird, er wird nicht, er wird … | |
Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines | |
Menschen herausfinden, ob der straffällig wird. Aber will man das? | |
Mensch und Maschine: Haben Sie Angst vor Algorithmen? | |
Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf | |
ihre Neutralität. Dabei entscheiden sie nicht immer fair. | |
Berechnung des Alltags: Wir sind Algorithmen-Zombies | |
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass | |
wir es merken, und machen uns so manipulierbar. | |
Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit | |
In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. Damit | |
könne man Leben retten, sagt ein Statistiker. | |
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist | |
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es | |
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden. | |
Algorithmen im Internet: „Die Maschinen entscheiden für uns“ | |
Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir | |
verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin | |
Zeynep Tufekci. | |
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster | |
Seit Oktober testet die Polizei München eine Software, mit der sich | |
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv | |
aus. | |
Rechnergestützte Prognosen: Wie Ihre Zukunft berechnet wird | |
Jede Menge Daten: Was der Supermarkt, das Smartphone, der Geheimdienst und | |
die Polizei heute schon über morgen wissen – vier Beispiele. |