Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Algorithmen im Justizsystem: 72 Prozent Mordwahrscheinlichkeit
> In den USA berechnen Computerprogramme, wie gefährlich Menschen sind.
> Damit könne man Leben retten, sagt ein Statistiker.
Bild: Wie weit ist unser Verhalten vorhersagbar?
Maschinen sollten mehr entscheiden dürfen, sagt der Statistiker und
Soziologe Richard Berk. Die könnten das einfach besser als Menschen. Die
Maschinen, die Richard Berk in seinem Büro der Universität von Philadelphia
bedient, sollen beispielsweise herausfinden, ob Gefangene wieder rückfällig
werden, wenn man sie auf Bewährung freilässt. Berk hat auch schon versucht,
zu prognostizieren, ob ein Mörder wieder einen Mord begehen wird. Oder ob
ein ungeborenes Baby einmal straffällig wird oder nicht.
Polizisten aus Rochester im amerikanischen Minnesota sind solchen Ideen
bisher am nächsten gekommen. Sie wollten mit Hilfe eines Statistikprogramms
von IBM prognostizieren, ob jugendliche Straftäter zu erwachsenen
Straftätern werden. Dafür hätten sie nicht nur Informationen aus der
Polizeidatenbank verwendet, sondern auch aus allen anderen verfügbaren
Quellen, etwa vom Sozialamt.
Die Öffentlichkeit in Rochester, das vor allem für seine Mayo Klinik
bekannt ist, reagierte entsetzt. Maschinen, die aus Daten die Zukunft von
Jugendlichen lesen?
Richard Berk, der in seinem Feld als einer der führenden Forscher der USA
gilt, verweist auf die positiven Seiten, die solche Vorhersagen mit sich
bringen. Seine Algorithmen könnten doch helfen. Wenn man schon vor der
Geburt eines Babys wisse, dass es gefährdet sei, könne man die staatlichen
Hilfen erhöhen.
## Wenn Algorithmen unsere Zukunft berechnen
Der Ansatz klinge erst einmal gutmütig, sagt der Jurist Andrew Ferguson.
Und natürlich wäre es großartig, wenn die Vorhersage, man könnte zum
Verbrecher werden, eine Art Glückslos wäre, weil dann Sozialprogramme
hochgefahren würden, weil man eine Collegeausbildung finanziert bekäme.
Die Alternative, gibt Ferguson zu bedenken, wäre allerdings: Wir sperren
dieses eine Prozent der Bevölkerung vorsichtshalber weg und verhindern so
Verbrechen. Was käme wohl raus, wenn man das in den USA zur Abstimmung
stellen würde? Ferguson hätte Angst vor dem Ergebnis „Besonders, wenn das
eine Prozent wirtschaftlich benachteiligte Schwarze sind.“
In der Titelgeschichte der [1][taz.am wochenende] gehen wir der Frage nach,
wie sich ein Rechtsstaat verändert, wenn zusehends mehr Entscheidungen von
Maschinen getroffen werden, wenn Algorithmen die Zukunft von Menschen
berechnen. Besonders häufig werden die Programme in den USA eingesetzt, um
zu entscheiden, ob ein Gefangener auf Bewährung freigelassen werden darf
oder nicht. In Bundesstaaten wie Pennsylvania allerdings soll das Urteil
der Algorithmen auch in Gerichtsverhandlungen einfließen. Die private
Arnold Foundation, eine Familienstiftung, bietet Richtern ein
Prognoseinstrument an, das berechnet, wie wahrscheinlich es ist, dass
jemand flieht, wenn man ihn nicht in Untersuchungshaft nimmt, sondern erst
einmal laufen lässt.
Kriminologen streiten, ob dem Urteil der Maschinen oder dem der Menschen
mehr zu trauen sei. Und das seit etlichen Jahren. Algorithmen, Programme
also, die Entscheidungen berechnen, werden in den USA seit den 1920ern
eingesetzt. Damals wurde nur auf dem Papier gerechnet.
Psychologen, die Gefangene begutachten, beklagen, dass das Urteil der
Algorithmen unverrückbar wirke. Dabei habe der Mensch immer die
Entscheidung, ob er ein Verbrechen begehe oder nicht.
Statistiker monieren, dass Psychologen die Rechnungen der Algorithem zu oft
überschreiben würden, weil sie ihr Bauchgefühl für verlässlicher hielten.
Der Psychologe Paul Meehl sprach sich schon in den 1950ern für statistische
Vorhersagen aus. Weil der Mensch sich immer für unbestechlich halte, es
aber selten sei, müsse man den Maschinen vertrauen.
## Auch Computer können rassistisch sein
„Psychologen finden immer einen Grund, warum sie das Maschinenurteil
korrigieren müssen,“ ärgert sich der Kriminologe Nicolas Scurich. Die
Prognosen der Algorithmen seien tatsächlich konsistenter, springt ihm
KiDeuk Kim bei, der zum selben Thema forscht. Es gebe jedoch einen
interessanten Widerspruch, der schwer aufzulösen sei: Wenn jemand als
hochgradig gefährlich eingestuft werde, werde er auch viel stärker
überwacht. Damit sinke seine Gefährlichkeit. Bestätigt das Urteil sich
durch seine Vollstreckung damit selbst? „Eigentlich“, überlegt Kideuk Kim,
„müsste man die Auswirkung solcher Eingriffe beziffern und die
statistischen Modelle entsprechend anpassen.“
Bürgerrechtler beklagen vor allem, dass die Entscheidungen der Algorithmen
schwer nachzuvollziehen seien. Sie wirkten objektiv und unbestechlich.
Tatsächlich könnten über die Zahlen aber dieselben Vorurteile einfließen,
die auch die Entscheidung eines Richters trüben. Vor allem, weil die Daten,
etwa die der Polizei, nicht so objektiv seien, wie man sie darstelle.
Es sei ganz einfach, sagt der Statistiker Patrick Ball: „Wenn wir unsere
üblichen Verdächtigen dadurch gewinnen, dass wir Schwarze richtig intensiv
von der Polizei beobachten lassen, Weiße dagegen immer davonkommen dürfen.
Jetzt raten Sie mal, was so ein Algorithmus tut: Er wird dieses Verhalten
natürlich exakt reproduzieren.“ Aber er kann ja nicht rassistisch sein,
oder? Es ist ja nur ein Computer? Ball regt das auf. „Natürlich ist er
vollkommen rassistisch.“
Sollte man Algorithmen in der Justiz nutzen? Könnten die Programme
vielleicht sogar Menschen helfen, die potentielle Verbrecher sind? Darf man
Menschen dafür zu potentiellen Verbrechern stempeln?
Diskutieren Sie mit!
Die Titelgeschichte „Wird dieses Kind ein Mörder?“ lesen Sie in der
[2][taz.am wochenende] vom 24./25. Oktober 2015.
23 Oct 2015
## LINKS
[1] /!p4662/
[2] /!p4662/
## AUTOREN
Johannes Gernert
## TAGS
Polizei
Justiz
Algorithmen
Statistik
Verbrechen
Gefängnis
Schwerpunkt Überwachung
Justiz
Schwerpunkt Polizeikontrollen in Hamburg
Schwerpunkt Meta
Polizei
## ARTIKEL ZUM THEMA
Berechnung des Alltags: Wir sind Algorithmen-Zombies
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
wir es merken, und machen uns so manipulierbar.
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.
Algorithmen im Internet: „Die Maschinen entscheiden für uns“
Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir
verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin
Zeynep Tufekci.
„Verbrechensvorhersage“ in Bayern: Algorithmen gegen Gangster
Seit Oktober testet die Polizei München eine Software, mit der sich
angeblich Verbrechen vorhersagen lassen. Die erste Bilanz fällt positiv
aus.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.