# taz.de -- Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit | |
> In den USA berechnen Computerprogramme, wie gefährlich Menschen sind. | |
> Damit könne man Leben retten, sagt ein Statistiker. | |
Bild: Wie weit ist unser Verhalten vorhersagbar? | |
Maschinen sollten mehr entscheiden dürfen, sagt der Statistiker und | |
Soziologe Richard Berk. Die könnten das einfach besser als Menschen. Die | |
Maschinen, die Richard Berk in seinem Büro der Universität von Philadelphia | |
bedient, sollen beispielsweise herausfinden, ob Gefangene wieder rückfällig | |
werden, wenn man sie auf Bewährung freilässt. Berk hat auch schon versucht, | |
zu prognostizieren, ob ein Mörder wieder einen Mord begehen wird. Oder ob | |
ein ungeborenes Baby einmal straffällig wird oder nicht. | |
Polizisten aus Rochester im amerikanischen Minnesota sind solchen Ideen | |
bisher am nächsten gekommen. Sie wollten mit Hilfe eines Statistikprogramms | |
von IBM prognostizieren, ob jugendliche Straftäter zu erwachsenen | |
Straftätern werden. Dafür hätten sie nicht nur Informationen aus der | |
Polizeidatenbank verwendet, sondern auch aus allen anderen verfügbaren | |
Quellen, etwa vom Sozialamt. | |
Die Öffentlichkeit in Rochester, das vor allem für seine Mayo Klinik | |
bekannt ist, reagierte entsetzt. Maschinen, die aus Daten die Zukunft von | |
Jugendlichen lesen? | |
Richard Berk, der in seinem Feld als einer der führenden Forscher der USA | |
gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich | |
bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der | |
Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen | |
Hilfen erhöhen. | |
## Wenn Algorithmen unsere Zukunft berechnen | |
Der Ansatz klinge erst einmal gutmütig, sagt der Jurist Andrew Ferguson. | |
Und natürlich wäre es großartig, wenn die Vorhersage, man könnte zum | |
Verbrecher werden, eine Art Glückslos wäre, weil dann Sozialprogramme | |
hochgefahren würden, weil man eine Collegeausbildung finanziert bekäme. | |
Die Alternative, gibt Ferguson zu bedenken, wäre allerdings: Wir sperren | |
dieses eine Prozent der Bevölkerung vorsichtshalber weg und verhindern so | |
Verbrechen. Was käme wohl raus, wenn man das in den USA zur Abstimmung | |
stellen würde? Ferguson hätte Angst vor dem Ergebnis „Besonders, wenn das | |
eine Prozent wirtschaftlich benachteiligte Schwarze sind.“ | |
In der Titelgeschichte der [1][taz.am wochenende] gehen wir der Frage nach, | |
wie sich ein Rechtsstaat verändert, wenn zusehends mehr Entscheidungen von | |
Maschinen getroffen werden, wenn Algorithmen die Zukunft von Menschen | |
berechnen. Besonders häufig werden die Programme in den USA eingesetzt, um | |
zu entscheiden, ob ein Gefangener auf Bewährung freigelassen werden darf | |
oder nicht. In Bundesstaaten wie Pennsylvania allerdings soll das Urteil | |
der Algorithmen auch in Gerichtsverhandlungen einfließen. Die private | |
Arnold Foundation, eine Familienstiftung, bietet Richtern ein | |
Prognoseinstrument an, das berechnet, wie wahrscheinlich es ist, dass | |
jemand flieht, wenn man ihn nicht in Untersuchungshaft nimmt, sondern erst | |
einmal laufen lässt. | |
Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen | |
mehr zu trauen sei. Und das seit etlichen Jahren. Algorithmen, Programme | |
also, die Entscheidungen berechnen, werden in den USA seit den 1920ern | |
eingesetzt. Damals wurde nur auf dem Papier gerechnet. | |
Psychologen, die Gefangene begutachten, beklagen, dass das Urteil der | |
Algorithmen unverrückbar wirke. Dabei habe der Mensch immer die | |
Entscheidung, ob er ein Verbrechen begehe oder nicht. | |
Statistiker monieren, dass Psychologen die Rechnungen der Algorithem zu oft | |
überschreiben würden, weil sie ihr Bauchgefühl für verlässlicher hielten. | |
Der Psychologe Paul Meehl sprach sich schon in den 1950ern für statistische | |
Vorhersagen aus. Weil der Mensch sich immer für unbestechlich halte, es | |
aber selten sei, müsse man den Maschinen vertrauen. | |
## Auch Computer können rassistisch sein | |
„Psychologen finden immer einen Grund, warum sie das Maschinenurteil | |
korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die | |
Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm | |
KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen | |
interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als | |
hochgradig gefährlich eingestuft werde, werde er auch viel stärker | |
überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich | |
durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim, | |
„müsste man die Auswirkung solcher Eingriffe beziffern und die | |
statistischen Modelle entsprechend anpassen.“ | |
Bürgerrechtler beklagen vor allem, dass die Entscheidungen der Algorithmen | |
schwer nachzuvollziehen seien. Sie wirkten objektiv und unbestechlich. | |
Tatsächlich könnten über die Zahlen aber dieselben Vorurteile einfließen, | |
die auch die Entscheidung eines Richters trüben. Vor allem, weil die Daten, | |
etwa die der Polizei, nicht so objektiv seien, wie man sie darstelle. | |
Es sei ganz einfach, sagt der Statistiker Patrick Ball: „Wenn wir unsere | |
üblichen Verdächtigen dadurch gewinnen, dass wir Schwarze richtig intensiv | |
von der Polizei beobachten lassen, Weiße dagegen immer davonkommen dürfen. | |
Jetzt raten Sie mal, was so ein Algorithmus tut: Er wird dieses Verhalten | |
natürlich exakt reproduzieren.“ Aber er kann ja nicht rassistisch sein, | |
oder? Es ist ja nur ein Computer? Ball regt das auf. „Natürlich ist er | |
vollkommen rassistisch.“ | |
Sollte man Algorithmen in der Justiz nutzen? Könnten die Programme | |
vielleicht sogar Menschen helfen, die potentielle Verbrecher sind? Darf man | |
Menschen dafür zu potentiellen Verbrechern stempeln? | |
Diskutieren Sie mit! | |
Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der | |
[2][taz.am wochenende] vom 24./25. Oktober 2015. | |
23 Oct 2015 | |
## LINKS | |
[1] /!p4662/ | |
[2] /!p4662/ | |
## AUTOREN | |
Johannes Gernert | |
## TAGS | |
Polizei | |
Justiz | |
Algorithmen | |
Statistik | |
Verbrechen | |
Gefängnis | |
Schwerpunkt Überwachung | |
Justiz | |
Schwerpunkt Polizeikontrollen in Hamburg | |
Schwerpunkt Meta | |
Polizei | |
## ARTIKEL ZUM THEMA | |
Berechnung des Alltags: Wir sind Algorithmen-Zombies | |
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass | |
wir es merken, und machen uns so manipulierbar. | |
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist | |
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es | |
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden. | |
Algorithmen im Internet: „Die Maschinen entscheiden für uns“ | |
Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir | |
verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin | |
Zeynep Tufekci. | |
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster | |
Seit Oktober testet die Polizei München eine Software, mit der sich | |
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv | |
aus. |