Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Algorithmen und Kriminalität: Er wird, er wird nicht, er wird …
> Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines
> Menschen herausfinden, ob der straffällig wird. Aber will man das?
Bild: Münztelefone für Inhaftierte in einem Gefängnis bei Phoenix, Arizona, …
Richard Berk ist ein alter weißer Mann, der dafür sorgt, dass junge,
schwarze Männer länger im Gefängnis sitzen. Er tut das mit einem
Computerprogramm, von dem er ganz offen zugibt, dass niemand genau
nachvollziehen kann, wie es funktioniert.
Berk, den eigentlich alle Dick nennen, ist 72 Jahre alt, hat eine Glatze,
einen weißen Bart ums Kinn, dicke Tränensäcke unter den Augen, und er mag
Fakten. Er betrachtet es als seinen Job, die Fakten in die Welt zu bringen,
raus in die Verwaltungen der Gefängnisse, in die Polizeistationen der USA,
zu den Sozialämtern. Berk ist Soziologe. Er arbeitet seit etlichen Jahren
mit den ausgefeiltesten statistischen Programmen daran, immer genauere
Vorhersagen zu treffen. Wird jemand seine Kinder schlagen? Wird jemand
morden?
Berk sagt, dass er für ungeborene Babys jetzt schon mit ziemlicher
Sicherheit prognostizieren könnte, ob aus ihnen einmal Verbrecher werden.
Traue sich nur noch keiner. Werde aber bald kommen. Fünf Jahre vielleicht,
sagt Berk.
Es ist einer der heißesten Tage eines heißen Sommers. Die Hochhäuser
schwitzen aus ihren Klimaanlagen, das Kondenswasser tropft nur so aus den
röhrenden Kästen an den Außenwänden der Gebäude. Unten auf den Straßen
erschießen sich so viele Leute wie lange nicht mehr. Junge Leute vor allem,
schwarze. Die Polizeireporter werden bald anfangen zu fragen, warum die
Mordraten in diesem Sommer überall durch die Decke knallen. Baltimore,
Chicago, New York. Auch in Philadelphia, wo Berk jetzt in seinem kühlen
Büro sitzt, zwischen Bücherstapeln, Familienfotos und Computern, und sagt,
dass man ihn nicht missverstehen solle.
„Ich versuche, schwarze Leben zu retten“, sagt Berk.
Es gibt natürlich etliche Leute, die das ganz anders sehen, weil Berks
Algorithmen vor allem schwarze Gefangene als gefährlich einstufen.
Bürgerrechtler, schwarze Aktivisten, Juristen haben ganze Bücher gegen das
geschrieben, was er da macht.
Deshalb sagt er es ja.
An der Wand über seinem Schreibtisch hängt eine rosa Uhr, auf der „Data
Analysis Inc.“ steht. Zur Blue Jeans trägt Berk ein kurzärmeliges Hemd,
fliederfarben. Seine Stimme ist tief und unbeirrbar. Gegenargumente hört er
kurz an. Dann legt er wieder dar, wie es wirklich ist. Nur manchmal muss er
zwischendurch kurz husten.
Richard Berk ist spät im Leben Vater geworden. Sein Sohn ist siebzehn. Sie
diskutieren oft darüber, welche Rolle Maschinen künftig spielen. Die
Antwort, sagt Berk, laute: „Maschinen werden immer mehr Entscheidungen
treffen, weil sie es einfach besser können.“
Mit der Intelligenz seiner Rechenmaschinen versucht Berk in Maryland fürs
Sozialamt herauszufinden, ob Kinder in einer Familie Missbrauch fürchten
müssen. Er arbeitet mit der Polizei in Philadelphia daran, vorherzusagen,
ob häusliche Gewalt sich in bestimmten Haushalten wiederholt. In
Philadelphia will er außerdem ermitteln, ob jemand wohl zum Gerichtstermin
erscheint oder eher nicht, damit die Richter wissen, ob sie
Untersuchungshaft verhängen sollen.
Google sammelt Daten, um daraus zu lesen, welchen Buchstaben wir als
nächsten in den Suchschlitz tippen. Facebook findet mit seinen Daten
heraus, welche unserer Freunde uns am meisten interessieren. Banken
ermitteln, wie lange unser Geld noch reicht. Versicherungen versuchen
festzustellen, wie wahrscheinlich es ist, dass wir mit 55 an
Schilddrüsenkrebs erkranken. Computer zeichnen Lebenswege. Sie haben die
Macht, uns zu lenken.
Längst sind sie auch für Polizei und Justiz im Einsatz, deutsche Polizisten
wollen so Einbrüche vorhersehen. „Predictive Policing“ bezeichnet
Bundesinnenminister Thomas de Maizière als das polizeiliche Instrument der
Zukunft.
Berk gilt in seinem Gebiet als einer der besten in den USA, vielleicht
sogar der Welt. Das sagen viele seiner Kollegen. Seinen neuesten
Algorithmus hat er für die Behörde in Pennsylvania entworfen, die
entscheidet, wann jemand auf Bewährung raus darf.
Das Programm soll Wahrscheinlichkeiten dafür liefern, ob ein Gefangener
draußen wieder ein Verbrechen begehen wird, und wenn ja, ob damit zu
rechnen ist, dass es ein Gewaltverbrechen ist. Die Behörde testet den
Algorithmus gerade. Wahrscheinlich wird sie ihn bald übernehmen.
Die Zahlen, die Berks Maschinen berechnen, stehen bei John Tuttle auf dem
Zettel, wenn er Gefangene anhört, um zu entscheiden, wann sie rausdürfen.
Meist führt Tuttle die Gespräche von seinem Büro aus, die Gefangenen werden
dort auf einen Flachbildfernseher übertragen. Videokonferenz.
Tuttle, 59 Jahre alt, ist der Vorsitzende der Bewährungsbehörde von
Pennsylvania, ein massiger Mann mit wenig Resthaar, aber umso mehr Humor.
Er hat seinen technischen Direktor mit in den Konferenzraum gebracht, um
die Sache mit dem Algorithmus zu erklären. Ein langer dunkler Tisch,
bordeauxrote Ledersessel. Draußen, hinter dem Panoramafenster, fließt in
Harrisburg der Susquehanna River vorbei, der an diesem Tag sehr niedrig
steht.
„Unser Job ist es, das Risiko für die Öffentlichkeit abzuwägen“, sagt der
technische Direktor. „Die Statistik hilft uns dabei.“
„Erzähl ihm mal, was mein Lieblingsspruch ist“, ruft John Tuttle ihm zu.
„Wir werden nicht für die Einfachen bezahlt“, sagt der Direktor.
„Das ist mein Lieblingsspruch“, ruft John Tuttle. „Wir werden nicht für …
Einfachen bezahlt.“
Sie kümmern sich um die schwierigen Fälle. Egal, ob es darum gehe, zu
entscheiden, ob jemand rausdarf. Oder ihn dann draußen zu betreuen. „Jeder
kann einfach alle einsperren. Oder die ganz Ungefährlichen rauslassen. Wir
werden dafür bezahlt, dass wir die harten Entscheidungen treffen.“
Irgendwann, klar, sagt der Direktor, gehe immer irgendein Fall mies aus.
„Go bad“, nennen sie das. Das sei wie beim American Football, sagt Tuttle.
Man verteidigt gegen diesen einen Typen. Und man bekommt richtig aufs Maul.
Man muss das aber sofort vergessen, weil sofort der nächste auf einen
zugerannt kommt. So ist das mit den miesen Fällen. Es geht immer weiter.
„Oder haben Sie mal von General Custer und den Indianern gehört? Die
kämpften um Amerika. Da kamen immer mehr Indianer.“ Immer mehr Fälle, sagt
Tuttle. Der Direktor lacht.
## Bevor jemand mordet, entscheidet er sich dafür
Ein paar solcher miesen Fälle haben dazu geführt, dass sie in Pennsylvania
mehr Statistik denn je verwenden. Vor sieben Jahren erschossen Exhäftlinge
auf Bewährung zwei Polizisten. Der Gouverneur setzte die Bewährung eine
Zeit lang komplett aus. Er wandte sich an einen Kriminologen, der mit
seinen statistischen Verfahren sicherstellen sollte, dass so etwas künftig
so unwahrscheinlich wird wie möglich.
John Tuttle entscheidet oft über 14 Fälle an einem Tag, hintereinander weg.
Seit damals hat er dafür neben dem Lebenslauf der Gefangenen und anderen
Kennziffern auch eine Gefahreneinschätzung. Sie zeigt das Risiko: hoch,
mittel, niedrig. Neuerdings experimentieren sie außerdem mit einer Ampel.
In kleinen Kästchen erscheinen die Fälle dann als rot, gelb oder grün. Die
Ampel hat Berk in seinem Büro in Philadelphia entwickelt. Sie soll die
alten Kategorien ablösen.
„Mit den grünen scheint alles okay zu sein“, sagt Tuttle, „die gelben
könnten was anstellen. Bei den roten musst du echt aufpassen.“
Es gehe darum, die Darth Vaders zu finden, die wirklich Bösen. Das sage
Berk immer.
In vielen Bundesstaaten der USA übernehmen die Algorithmen gerade mehr
Entscheidungen in Gefängnissen und vor Gerichten. Pennsylvania ist einer
der Staaten, die dabei am weitesten gehen. Schon im kommenden Jahr könnte
die statistische Verbrechensprognose dort in Gerichtssälen eingeführt
werden. Bewährungsbehörden wie die von John Tuttle haben damit lange
Erfahrung. Programme, die herausfinden sollen, wie gefährlich Menschen
sind, gibt es im amerikanischen Justizsystem seit den zwanziger Jahren.
Gerechnet wurde zunächst auf dem Papier. War jemand ein Mann und noch recht
jung, als er verurteilt wurde? Dann ist die Wahrscheinlichkeit höher, dass
er es wieder tun wird. Die Faktoren heißen: Alter, Alter bei der ersten
Tat, Waffenbesitz.
Die Computer finden kein Mördergen, sondern die perfekten Bedingungen für
ein Verbrechen. Mittlerweile ist ihre Rechenkraft so groß, ihre Speicher
sind so riesig, dass sich deutlich mehr Variablen einbeziehen lassen, um
Szenarios zu spinnen.
Darf man Menschen einsperren, weil ein Computer sagt, die
Wahrscheinlichkeit sei recht hoch, dass sie wieder eine Straftat begehen?
Als Teal Kozel am anderen Ende der USA von Berks Verfahren hört, hat sie
eine klare Antwort. „Das ist sehr schicksalsergeben“, sagt sie. Kozel, 39
Jahre alt, hat kastanienbraune Haare, die sich auf ihrem Kopf türmen. Sie
steigert sich langsam in ihre Antwort hinein. Es regt sie richtig auf.
„Was Berk macht, ignoriert den menschlichen Einfluss komplett“, sagt Kozel.
„Selbst wenn jeder bekannte Risikofaktor auf einen einzelnen Menschen
zutrifft, hat dieser Mensch am Ende immer noch eine Wahl. Er entscheidet,
ob er Gewalt anwendet oder nicht. Ich bin Psychologin. Ich gehe immer davon
aus, dass es diese Wahl gibt. Selbst bei den gewalttätigsten Kriminellen.
Ich habe mit wirklich vielen Kriminellen gesprochen, mit Hunderten, selbst
bei impulsivsten Taten gibt es einen Moment der Entscheidung. Wenn man nur
auf die Statistik vertraut, um manche Menschen aus der Gesellschaft
auszuschließen, ist das ein wirklich fatalistischer Blick auf die Dinge.
Ich weiß nicht, ob ich in so einer Welt leben will.“
## Algorithmen sind wie Kuchen, Berk probiert sie
Kozel arbeitet als Psychologin für die Bewährungsbehörde von Kalifornien.
Sie setzen dort wesentlich stärker auf psychologische Tests, die aus langen
Gesprächen entstehen. Ein ähnlich langer, ähnlich dunkler Tisch wie bei den
Kollegen in Pennsylvania. Nur sitzen um ihn drei Frauen. Kozel, eine
Kollegin und die Vorsitzende. Sie nennen ihren Ansatz strukturierte,
professionelle Beurteilung. In Kalifornien vertrauen sie vor allem auf das
Urteil von Menschen.
Richard Berk hat sich ein Bild überlegt, um sein Verfahren zu erläutern.
Mit seiner tiefen Erklärstimme legt er in seinem kühlen Büro alles langsam
dar. „Nehmen wir mal an, Sie wollten einen Kuchen backen“, sagt Berk. „Sie
haben das Rezept, zwei Eier, Milch, Mehl. Sie rühren alles in einer
Schüssel zusammen. Dabei wissen Sie ganz genau, welche Zutaten in der
Schüssel sind. Schließlich geben Sie alles in eine Backform, die Sie in den
Ofen schieben, eine Dreiviertelstunde. Im Ofen passieren dann eine ganze
Reihe komplizierter chemischer und physikalischer Vorgänge, die Sie nicht
verstehen. Selbst Chemiker oder Physiker begreifen sie nicht genau. Wie
wird aus einer flüssigen Masse dieser fluffige, leckere Kuchen? Wenn der
Kuchen schmeckt, verwenden Sie das Rezept öfter. Wenn nicht, ändern Sie es.
Okay?“
„So funktioniert der Algorithmus“, sagt Berk. „Der Computer arbeitet, und
ich probiere den Kuchen.“ Wenn man Leute von den Algorithmen überzeugen
will, sei das das Schwierigste, findet er: Sie müssen die Vorhersage
akzeptieren, obwohl sie die Mechanismen nicht unbedingt verstehen.
Der Jurist Frank Pasquale hat ein Buch gegen diese Art von Berechnungen
geschrieben. Es heißt „The Black Box Society“. Pasquale kritisiert darin,
dass eine wachsende Zahl der Entscheidungen von Justiz, Versicherungen oder
Online-Unternehmen mit Algorithmen getroffen werden, die genau solche Black
Boxes sind. Undurchschaubar.
Oft werden die Risikoanalysen für die Gefängnisse nicht von unabhängigen
Wissenschaftlern wie Berk gemacht, sondern von privaten Firmen. Wenn man
dann in den Bewährungsbehörden fragt, was genau die Instrumente eigentlich
berechneten, antworten die Verantwortlichen manchmal: „Tja, das liegt
hinter dem magischen Vorhang.“ Berk dagegen publiziert viel. Man kann
nachlesen, was er tut, auch wenn man dann immer noch nicht versteht, was im
Ofen vor sich geht. Er nimmt die üblichen Informationen: Alter, Einkommen,
Vorstrafen, Drogendelikte, Gewaltdelikte, Waffendelikte. Sein Programm
würfelt all die Daten wieder und wieder neu zusammen, lässt hunderte Male
die Wahrscheinlichkeit für diesen einen Menschen berechnen. Am Ende wird
aus allen Durchgängen das Urteil gebildet. Zu jedem Urteil liefert Berk
einen Prozentsatz, der angibt, wie sicher der Algorithmus sich ist. Wie oft
er zum selben Ergebnis kam.
Berks Methode, sagen auch Leute, die ihn bewundern, hat nur einen Makel:
Die Zahl derjenigen, die als gefährlich eingestuft werden, obwohl sie es
nicht sind, liegt bei seinen Programmen höher als bei anderen. Mehr
Menschen sitzen länger, als sie müssten. Das ist der Kollateralschaden.
Er, sagt Berk, liefere nur die Fakten. Die Politik müsse entscheiden, was
sie daraus mache.
In den Gefängnissen der USA nahm die statistische Risikoanalyse in den
siebziger Jahren stark zu. Es waren eher linke Soziologen, die die Technik
förderten, weil sie mit ihrer Hilfe beweisen wollten, dass viele der
Menschen, die eingesperrt werden, deutlich weniger gefährlich sind, als
Konservative gern pauschal behaupteten.
Dass sich die Algorithmen gerade jetzt so stark verbreiten, hat vor allem
ökonomische Gründe. Für die 50.000 Menschen in seinen Gefängnissen zahlt
etwa der Staat Pennsylvania 2 Milliarden Dollar im Jahr, 7 Prozent seines
gesamten Budgets. Vor dreißig Jahren machte der Anteil nur 2 Prozent des
Budgets aus. Es gibt in Pennsylvania 2.000 Betten zu wenig für all die
Häftlinge. Seit 1970 hat sich die Zahl der Gefangenen in den Vereinigten
Staaten um das Siebenfache vergrößert, von etwa 300.000 auf 2,2 Millionen.
Die Algorithmen, hoffen einige, können helfen, mehr Leute guten Gewissens
zu entlassen.
## Männer vertrauen Maschinen, Frauen der Psychologie
John Tuttle, der Vorsitzende der Bewährungsbehörde von Pennsylvania, wird
bald entscheiden müssen, ob er Berks Maschinen nach dem Testbetrieb
übernimmt. Er wirkt entschlossen, das zu tun, auch wenn er es erst mit
seinen Kollegen besprechen muss. Sie werden sich einen Tag für die
Diskussion nehmen. „Mindestens einen halben“, sagt er.
Bisher scheinen sich Tuttle und seine Leute stark auf den Algorithmus zu
verlassen. „Sie lassen jemanden mit höherer Wahrscheinlichkeit frei, wenn
zwei Dinge zutreffen“, sagt Berk. „Die Prognose muss sagen, dass er oder
sie nicht gewalttätig wird. Und sie muss das mit großer Sicherheit tun.“
Wenn man Tuttle und seinen technischen Direktor im Konferenzraum in
Harrisburg fragt, warum sie die Entscheidung nicht gleich dem Algorithmus
überlassen, sagt der Direktor, er glaube nicht, dass eine Maschine das
jemals tun könne.
„Das wäre so was wie künstliche Intelligenz“, sagt John Tuttle.
„Das wäre zu sehr wie Minority Report“, wendet der Direktor ein.
„Minority Report“, eine Kurzgeschichte von Philipp K. Dick. In einem Raum
der Precrime-Behörde kauern drei verkabelte Mutanten. Schwachsinnige, denen
man die Fähigkeit antrainiert hat, in die Zukunft zu sehen. Ihre Fähigkeit
wird genutzt, um Mörder schon vor dem Mord festzunehmen. In fünf Jahren hat
die Republik nur einen Mord gesehen. Jetzt allerdings steht auf einem der
Vorhersagezettel ein seltsamer Name: John Anderton, der Leiter der Behörde
persönlich.
Wenn der Mörder weiß, dass er morden wird, hält ihn das vom Morden ab?
Das Wissen um die Zukunft verändert die Zukunft, unterschiedliches Wissen
schafft unterschiedliche Zukünfte. Damit spielt Philipp K. Dick, der
Science-Fiction-Autor. Steven Spielberg hat aus „Minority Report“ einen
Film gemacht.
Über einen Flachbildfernseher ist neben Tuttle und seinem Direktor auch ein
Bewährungshelfer zugeschaltet. „Je härter es wird, all seine Fälle zu
schaffen, desto mehr verlässt man sich auf die statistische Analyse“, sagt
der. Seine Behörde sei ziemlich überlastet, ergänzt Tuttle.
Die Maschinen treffen also schon einen Großteil der Entscheidungen. Die
Menschen gestehen sich das nur noch nicht ein. Maschinen wirken
unbestechlich, man kann sich gut hinter ihnen verstecken.
Forscher, die abgeglichen haben, ob die Psychologinnen oder die Computer
bessere Vorhersagen treffen, sagen, die Unterschiede seien fast
unerheblich. Menschen tendierten eher zu den mittleren Bewertungen und
hätten Angst vor Extremen.
Drei Männer um einen Konferenztisch. Drei Frauen um einen anderen. Zwei
Bewährungsbehörden, eine an der Ostküste, eine an der Westküste. Die einen
eher für das Urteil der Maschinen, die anderen eher für das der Menschen.
Es motiviere Gefangene, wenn sie im Gespräch den Eindruck hätten, sie
verstünden, wie sie sich ändern müssten, um besser bewertet zu werden, sagt
Teal Kozel, die Psychologin. „Wenn es eine Chance gäbe, dass die Kommission
der Bewährungsbehörde einen guten Menschen in ihm sehe. Vielleicht schaffe
er es dann auch selbst wieder“, habe einer mal zu ihr gesagt.
Und wie, bitteschön, gibt Kozel zu bedenken, verändere es die Zukunft, wenn
jemand wegen statistischer Berechnungen weniger Hilfen bekäme, weil er als
ungefährlicher gelte? Werde er dann nicht gerade dadurch wieder
gefährlicher?
Wie verändert das Bild von der Zukunft die Zukunft, allein weil man es
zeichnet?
Im Juli 2013 steht plötzlich eine Kommandantin der Polizei bei Robert
McDaniel vor der Haustür. Sie sagt, sie habe eine Akte über ihn auf ihrem
Schreibtisch. Er solle jetzt mal besser aufpassen.
McDaniel hatte die High School abgebrochen, gekifft, war gelegentlich von
der Polizei festgehalten worden, nie etwas Schlimmes, behauptete er, als
ein Reporter der Chicago Tribune ihn danach fragte. Vermutlich weil ein
Bekannter von ihm erschossen worden war, landete er auf einer Liste der
Polizei von Chicago. Die „Heat List“. Auf ihr stehen Personen, die ein
Algorithmus aus den Datenbanken herausgepickt hat.
Der Fall ging um die Welt. McDaniel ist das erste öffentlich anerkannte
Algorithmus-Opfer, wenn es um Polizei oder Justiz geht.
## Verbrecher sind wie du und ich, selten wirklich böse
In Chicago berechnet die Polizei seit gut zwei Jahren, wie groß die
Wahrscheinlichkeit für bestimmte Menschen ist, erschossen zu werden. Oder
jemanden zu erschießen. Es geht vorerst nur so grob. Das Chicago Police
Department hat sich dafür von einem Wissenschaftler, der vorher viel mit
Bilderkennungsverfahren experimentiert hat, einen Algorithmus entwerfen
lassen. Chicago verfügt über eine der größten Polizeidatenbanken der
Vereinigten Staaten. Daraus zieht sich das Programm Informationen darüber,
ob jemand schon einmal geschossen hat oder ob auf ihn geschossen wurde, ob
er verurteilt worden ist und wenn ja wofür, ob er wegen Waffenbesitzes
angeklagt war oder als Gangmitglied gilt. 440 Personen werden so für eine
„Heat List“ ausgewählt, zwanzig für jeden Polizeibezirk. Die Polizisten
gehen dann von Tür zu Tür und warnen diese Personen, dass sie über ihren
Lebenswandel nachdenken sollten.
Der Hamburger Polizeipräsident und der Innensenator waren schon da, um sich
die Technik anzusehen.
Robert McDaniel ist einer wie viele der Jungs aus jenen Vierteln. Die
Mutter arbeitete bei der Restaurantkette Red Lobster, er hing auf der
Straße herum. Mittlerweile war er auch ein-, zweimal im Gefängnis. Er ist
einer dieser Jungs, die die Polizei sich gern genauer anschaut, weil sie
schwarz sind, weil es in ihrer Nachbarschaft oft Ärger gibt. Auch
Algorithmen durchleuchten sie genauer als andere.
Ein Junge, wie auch Richard Berk mit vielen gearbeitet hat, damals in
Baltimore.
Berk ist erst im Laufe der Neunziger zum Kriminologen geworden. Jemand von
der Gefängnisbehörde rief an und wollte wissen, ob er die Gefährlichkeit
von Insassen schätzen könne, damit sie richtig in die einzelnen
Sicherheitsstufen eingeteilt würden. Berk hatte zuvor als Soziologe
versucht zu prognostizieren, wann Menschen bereit sind, mehr Wasser zu
sparen. Er war damals noch in Los Angeles, an der University of California.
Er hat sich auch mit dem Klimawandel beschäftigt.
Sein Ziel, sagt Berk, war es immer, die bestmöglichen Informationen zu
liefern. Damit Politiker, Polizeichefs oder Behördenleiter die besten
Entscheidungen treffen. Natürlich hätte er auch zu einem Unternehmen gehen
können und Kreditkartenbetrug vorhersagen. Manche Kollegen haben das
gemacht. Aber er ist Wissenschaftler. Er will unabhängig sein.
Als Richard Berk noch ein junger Mann war, er hatte die Universität Yale
besucht, nahm er den Job in Baltimore an. Er sollte andere junge Männer auf
der Straße davon abhalten, sich gegenseitig umzubringen. Klassische
Sozialarbeit. Mit den Jungs am Wochenende rausfahren, Jobs vermitteln. Vier
Jahre lang.
Berk weiß, dass viele Baltimore vor allem aus der HBO-Serie „The Wire“
kennen, die von genau solchen Jungs handelt. Hat er nie gesehen. Er schaut
wenig fern.
Die Zeit in Baltimore hat seine Sicht auf die Dinge geprägt: „Verbrecher
sind selten wirklich böse. Manchmal gibt es auch die, klar. Aber die
meisten sind Leute wie du und ich, die in eine Situation geraten sind, in
der sie etwas wirklich Bescheuertes gemacht haben. Vielleicht hätten wir
dasselbe getan.“ Es gehe oft nur darum, wer es zuerst schafft, sich eine
Waffe zu besorgen. Das sei ihm damals schon wie ein interessantes
politisches, ein moralisches Problem vorgekommen.
Berk glaubt, dass seine Algorithmen helfen können. Die Vorhersage, man
könnte zum Verbrecher werden, wäre dann fast eine Art Glückslos. Er stellt
sich das so vor, dass Sozialprogramme vorsorglich hochgefahren würden,
Collegeausbildungen bezahlt. Und wenn man es schon vor der Geburt wüsste,
sagt Berk. Man könnte so viel tun. Besseres Essen für die Mutter.
Alkoholentzug. Drogenentzug. Eine Hebamme.
Muss man jemanden dafür erst zum potenziellen Verbrecher stempeln?
Die Alternative zu diesem Glückslos wäre, dass man gefährdete Menschen
einfach vorsichtshalber wegsperrt. Was wohl herauskäme, wenn man das in den
USA zur Abstimmung stellen würde?
Es gibt ein weiteres Buch, das sich gegen alles richtet, was Berk tut. Es
heißt „Gegen Vorhersagen“ und stammt auch von einem Jura-Professor. Bernard
E. Harcourt sagt darin: Alle Instrumente zur Risikoanalyse sind
rassistisch. Es habe, stellt er fest, wenn man sich mit ihm darüber
unterhält, eine Zeit gegeben, in der der Faktor Rasse offen einfloss. Das
war in den Zwanzigern. „Ein deutscher Vater galt damals als schlechtes
Zeichen“, erzählt er. Längst werden solche Kriterien nicht mehr offen
einbezogen. Ob jemand schwarz ist oder Hispanic, bahnt sich trotzdem seinen
Weg in die Berechnungen, argumentiert Harcourt. Über Umweg-Variablen wie
Nachbarschaft etwa. „Der Rassismus war damals juristisch, jetzt ist er
faktisch“, schließt Harcourt.
Berk weicht solchen Argumenten aus. Er spreche lieber über den Faktor
Geschlecht, der sei nicht ganz so aufgeladen wie „Race“. Gerade jetzt, wo
sich der Polizistenmord von Ferguson zum ersten Mal jährt. Wenn eine
Behörde also beschließe, das Geschlecht außen vor zu lassen, weil das
diskriminieren könnte, sage er: „Alles klar. Womöglich ist ihre
Vorhersagekraft um 15 Prozent vermindert. Es werden also in Pennsylvania
10.000 Verbrechen geschehen, die wir nicht vorhersagen können. Wollen Sie
das? Sie entscheiden.“
Das sagt Berk gern: Sie entscheiden.
Er stellt sich als Dienstleister dar, der der Öffentlichkeit die Zahlen
liefert. Aber natürlich legt seine Frage einen Schluss nahe.
## Eine rassistische Welt führt zu rassistischen Computern
Mister Berk, ist das nicht ein etwas formalistischer Ansatz, um eine so
große Frage zu beantworten?
„Ich kann Race natürlich rausnehmen. Nehmen wir also mal alles raus, was
mit Race verbunden sein könnte – was ja heutzutage fast alles wäre. Gehen
wir davon aus, das führt nun zu 35 mehr Morden im Jahr. Wer werden denn die
Opfer sein? Menschen töten Menschen wie sich selbst. Wenn also mehr
afroamerikanische Straftäter mit hohem Risiko freigelassen werden,
resultieren daraus mehr afroamerikanische Opfer. Wollen Sie das?“
Sie entscheiden.
Für so eine Entscheidung müsste man eigentlich herausfinden, wie genau sich
die Algorithmen auf wen genau auswirken. Die Gefangenen, deren Schicksal
durchgerechnet wird, haben aber gegen Ende ihrer Haftzeit meist keinen
Anwalt mehr. Sie sitzen in einem toten Winkel der Gesellschaft. Kaum jemand
überprüft das Urteil der Computer.
Berks Gegner würden nun sagen, dass seine Algorithmen mit dafür
verantwortlich sind, dass junge schwarze Männer deutlich häufiger in solche
Situationen geraten. Algorithmen gehen vom Status quo aus, den schreiben
sie mit ihren Berechnungen fort. Schwarze werden intensiver beobachtet und
also auch häufiger festgenommen. Weiße kommen davon.
„Auf jeder Stufe des Justizsystems haben Schwarze schlechtere Chancen“,
sagt Bernard E. Harcourt, der Autor von „Gegen Vorhersagen“.
Berk geht auf solche Punkte nie direkt ein. Er füttere nur den Algorithmus.
Seine Zahlen seien korrekt.
Der Algorithmus kann ja nicht rassistisch sein, oder? Es ist ja nur ein
Computer?
„Natürlich ist er vollkommen rassistisch“, sagt einer von Berks Kritikern,
ein Statistiker. Berks Zahlen stammten schließlich aus einer rassistischen
Wirklichkeit.
Berk sagt: „Der Algorithmus hat ja keine eigene Motivation. Er betrachtet
nur die Fakten. Ein Algorithmus hat eine wesentlich bessere Faktengrundlage
als Menschen mit all ihren Vorurteilen. Wenn es faktisch richtig ist, dass
Männer häufiger Frauen töten als andersherum, dann sollte das doch in so
einen Entscheidungsprozess einbezogen werden.“
Für Berk hat das alles eine gewisse Unaufhaltsamkeit. Er hat für den
Bundesstaat Maryland einmal versucht herauszufinden, welche
Jugendstraftäter auch nach ihrem 18. Geburtstag straffällig werden würden.
Das habe ziemlich gut funktioniert. Aber die Verantwortlichen hätten Angst
bekommen, es wirklich einzuführen.
Haben Sie keine Angst, dass all die Informationen missbraucht werden
könnten, Mister Berk?
„Technologien können immer für gute oder für böse Zwecke verwendet werden.
Atomenergie wäre ein klassisches Beispiel. Soll man deshalb mit dem
Erfinden aufhören? Daten werden doch jetzt schon missbraucht. Und auch ohne
Daten werden ganz schreckliche Entscheidungen getroffen.“
Wir würden uns zwangsläufig in diese Richtung bewegen, sagt Berk, „weil die
privaten Unternehmen es schon tun. Google sammelt alles. Das macht auch
Amazon, das tun viele Player im Gesundheitssystem, Versicherungen. Wir
werden sehr persönliche, sehr genaue Daten von jedem haben. Und dann?
Werden wir sie nutzen? Wie werden wir sie nutzen?“
Sie entscheiden.
9 Mar 2016
## AUTOREN
Johannes Gernert
## TAGS
Algorithmus
Psychologie
Verbrechen
Individualismus
Schwerpunkt Überwachung
Schwerpunkt Polizeikontrollen in Hamburg
Einbruch
Prognosen
Schwerpunkt Klimawandel
Bot
Algorithmen
Justiz
Schwerpunkt Polizeikontrollen in Hamburg
## ARTIKEL ZUM THEMA
Überwachungskameras in Gefängnissen: Lückenlose Auswertung
Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von
Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen.
Polizei will Erlaubnis für Datenanalysen: Präventives Durchleuchten
Die Reform des Hamburger Polizeigesetzes soll automatisierte Datenanalysen
ermöglichen. Die Polizei will damit Straftaten vorhersehen können.
Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“
Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche
begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet
werden.
Prognosesoftware für Einbrüche: Drah di net um …
… der Kommissar geht um. Durch sogenannte vorausschauende Polizeiarbeit
sollen Verbrechen verhindert werden.
Debatte Klimawandel: Die Weltrettungsmaschine
Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus
Silicon Valley brauchen wir einen linken Optimismus der Technik.
Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft
„Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das
Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt.
Berechnung des Alltags: Wir sind Algorithmen-Zombies
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass
wir es merken, und machen uns so manipulierbar.
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten.
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.