# taz.de -- Algorithmen und Kriminalität: Er wird, er wird nicht, er wird … | |
> Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines | |
> Menschen herausfinden, ob der straffällig wird. Aber will man das? | |
Bild: Münztelefone für Inhaftierte in einem Gefängnis bei Phoenix, Arizona, … | |
Richard Berk ist ein alter weißer Mann, der dafür sorgt, dass junge, | |
schwarze Männer länger im Gefängnis sitzen. Er tut das mit einem | |
Computerprogramm, von dem er ganz offen zugibt, dass niemand genau | |
nachvollziehen kann, wie es funktioniert. | |
Berk, den eigentlich alle Dick nennen, ist 72 Jahre alt, hat eine Glatze, | |
einen weißen Bart ums Kinn, dicke Tränensäcke unter den Augen, und er mag | |
Fakten. Er betrachtet es als seinen Job, die Fakten in die Welt zu bringen, | |
raus in die Verwaltungen der Gefängnisse, in die Polizeistationen der USA, | |
zu den Sozialämtern. Berk ist Soziologe. Er arbeitet seit etlichen Jahren | |
mit den ausgefeiltesten statistischen Programmen daran, immer genauere | |
Vorhersagen zu treffen. Wird jemand seine Kinder schlagen? Wird jemand | |
morden? | |
Berk sagt, dass er für ungeborene Babys jetzt schon mit ziemlicher | |
Sicherheit prognostizieren könnte, ob aus ihnen einmal Verbrecher werden. | |
Traue sich nur noch keiner. Werde aber bald kommen. Fünf Jahre vielleicht, | |
sagt Berk. | |
Es ist einer der heißesten Tage eines heißen Sommers. Die Hochhäuser | |
schwitzen aus ihren Klimaanlagen, das Kondenswasser tropft nur so aus den | |
röhrenden Kästen an den Außenwänden der Gebäude. Unten auf den Straßen | |
erschießen sich so viele Leute wie lange nicht mehr. Junge Leute vor allem, | |
schwarze. Die Polizeireporter werden bald anfangen zu fragen, warum die | |
Mordraten in diesem Sommer überall durch die Decke knallen. Baltimore, | |
Chicago, New York. Auch in Philadelphia, wo Berk jetzt in seinem kühlen | |
Büro sitzt, zwischen Bücherstapeln, Familienfotos und Computern, und sagt, | |
dass man ihn nicht missverstehen solle. | |
„Ich versuche, schwarze Leben zu retten“, sagt Berk. | |
Es gibt natürlich etliche Leute, die das ganz anders sehen, weil Berks | |
Algorithmen vor allem schwarze Gefangene als gefährlich einstufen. | |
Bürgerrechtler, schwarze Aktivisten, Juristen haben ganze Bücher gegen das | |
geschrieben, was er da macht. | |
Deshalb sagt er es ja. | |
An der Wand über seinem Schreibtisch hängt eine rosa Uhr, auf der „Data | |
Analysis Inc.“ steht. Zur Blue Jeans trägt Berk ein kurzärmeliges Hemd, | |
fliederfarben. Seine Stimme ist tief und unbeirrbar. Gegenargumente hört er | |
kurz an. Dann legt er wieder dar, wie es wirklich ist. Nur manchmal muss er | |
zwischendurch kurz husten. | |
Richard Berk ist spät im Leben Vater geworden. Sein Sohn ist siebzehn. Sie | |
diskutieren oft darüber, welche Rolle Maschinen künftig spielen. Die | |
Antwort, sagt Berk, laute: „Maschinen werden immer mehr Entscheidungen | |
treffen, weil sie es einfach besser können.“ | |
Mit der Intelligenz seiner Rechenmaschinen versucht Berk in Maryland fürs | |
Sozialamt herauszufinden, ob Kinder in einer Familie Missbrauch fürchten | |
müssen. Er arbeitet mit der Polizei in Philadelphia daran, vorherzusagen, | |
ob häusliche Gewalt sich in bestimmten Haushalten wiederholt. In | |
Philadelphia will er außerdem ermitteln, ob jemand wohl zum Gerichtstermin | |
erscheint oder eher nicht, damit die Richter wissen, ob sie | |
Untersuchungshaft verhängen sollen. | |
Google sammelt Daten, um daraus zu lesen, welchen Buchstaben wir als | |
nächsten in den Suchschlitz tippen. Facebook findet mit seinen Daten | |
heraus, welche unserer Freunde uns am meisten interessieren. Banken | |
ermitteln, wie lange unser Geld noch reicht. Versicherungen versuchen | |
festzustellen, wie wahrscheinlich es ist, dass wir mit 55 an | |
Schilddrüsenkrebs erkranken. Computer zeichnen Lebenswege. Sie haben die | |
Macht, uns zu lenken. | |
Längst sind sie auch für Polizei und Justiz im Einsatz, deutsche Polizisten | |
wollen so Einbrüche vorhersehen. „Predictive Policing“ bezeichnet | |
Bundesinnenminister Thomas de Maizière als das polizeiliche Instrument der | |
Zukunft. | |
Berk gilt in seinem Gebiet als einer der besten in den USA, vielleicht | |
sogar der Welt. Das sagen viele seiner Kollegen. Seinen neuesten | |
Algorithmus hat er für die Behörde in Pennsylvania entworfen, die | |
entscheidet, wann jemand auf Bewährung raus darf. | |
Das Programm soll Wahrscheinlichkeiten dafür liefern, ob ein Gefangener | |
draußen wieder ein Verbrechen begehen wird, und wenn ja, ob damit zu | |
rechnen ist, dass es ein Gewaltverbrechen ist. Die Behörde testet den | |
Algorithmus gerade. Wahrscheinlich wird sie ihn bald übernehmen. | |
Die Zahlen, die Berks Maschinen berechnen, stehen bei John Tuttle auf dem | |
Zettel, wenn er Gefangene anhört, um zu entscheiden, wann sie rausdürfen. | |
Meist führt Tuttle die Gespräche von seinem Büro aus, die Gefangenen werden | |
dort auf einen Flachbildfernseher übertragen. Videokonferenz. | |
Tuttle, 59 Jahre alt, ist der Vorsitzende der Bewährungsbehörde von | |
Pennsylvania, ein massiger Mann mit wenig Resthaar, aber umso mehr Humor. | |
Er hat seinen technischen Direktor mit in den Konferenzraum gebracht, um | |
die Sache mit dem Algorithmus zu erklären. Ein langer dunkler Tisch, | |
bordeauxrote Ledersessel. Draußen, hinter dem Panoramafenster, fließt in | |
Harrisburg der Susquehanna River vorbei, der an diesem Tag sehr niedrig | |
steht. | |
„Unser Job ist es, das Risiko für die Öffentlichkeit abzuwägen“, sagt der | |
technische Direktor. „Die Statistik hilft uns dabei.“ | |
„Erzähl ihm mal, was mein Lieblingsspruch ist“, ruft John Tuttle ihm zu. | |
„Wir werden nicht für die Einfachen bezahlt“, sagt der Direktor. | |
„Das ist mein Lieblingsspruch“, ruft John Tuttle. „Wir werden nicht für … | |
Einfachen bezahlt.“ | |
Sie kümmern sich um die schwierigen Fälle. Egal, ob es darum gehe, zu | |
entscheiden, ob jemand rausdarf. Oder ihn dann draußen zu betreuen. „Jeder | |
kann einfach alle einsperren. Oder die ganz Ungefährlichen rauslassen. Wir | |
werden dafür bezahlt, dass wir die harten Entscheidungen treffen.“ | |
Irgendwann, klar, sagt der Direktor, gehe immer irgendein Fall mies aus. | |
„Go bad“, nennen sie das. Das sei wie beim American Football, sagt Tuttle. | |
Man verteidigt gegen diesen einen Typen. Und man bekommt richtig aufs Maul. | |
Man muss das aber sofort vergessen, weil sofort der nächste auf einen | |
zugerannt kommt. So ist das mit den miesen Fällen. Es geht immer weiter. | |
„Oder haben Sie mal von General Custer und den Indianern gehört? Die | |
kämpften um Amerika. Da kamen immer mehr Indianer.“ Immer mehr Fälle, sagt | |
Tuttle. Der Direktor lacht. | |
## Bevor jemand mordet, entscheidet er sich dafür | |
Ein paar solcher miesen Fälle haben dazu geführt, dass sie in Pennsylvania | |
mehr Statistik denn je verwenden. Vor sieben Jahren erschossen Exhäftlinge | |
auf Bewährung zwei Polizisten. Der Gouverneur setzte die Bewährung eine | |
Zeit lang komplett aus. Er wandte sich an einen Kriminologen, der mit | |
seinen statistischen Verfahren sicherstellen sollte, dass so etwas künftig | |
so unwahrscheinlich wird wie möglich. | |
John Tuttle entscheidet oft über 14 Fälle an einem Tag, hintereinander weg. | |
Seit damals hat er dafür neben dem Lebenslauf der Gefangenen und anderen | |
Kennziffern auch eine Gefahreneinschätzung. Sie zeigt das Risiko: hoch, | |
mittel, niedrig. Neuerdings experimentieren sie außerdem mit einer Ampel. | |
In kleinen Kästchen erscheinen die Fälle dann als rot, gelb oder grün. Die | |
Ampel hat Berk in seinem Büro in Philadelphia entwickelt. Sie soll die | |
alten Kategorien ablösen. | |
„Mit den grünen scheint alles okay zu sein“, sagt Tuttle, „die gelben | |
könnten was anstellen. Bei den roten musst du echt aufpassen.“ | |
Es gehe darum, die Darth Vaders zu finden, die wirklich Bösen. Das sage | |
Berk immer. | |
In vielen Bundesstaaten der USA übernehmen die Algorithmen gerade mehr | |
Entscheidungen in Gefängnissen und vor Gerichten. Pennsylvania ist einer | |
der Staaten, die dabei am weitesten gehen. Schon im kommenden Jahr könnte | |
die statistische Verbrechensprognose dort in Gerichtssälen eingeführt | |
werden. Bewährungsbehörden wie die von John Tuttle haben damit lange | |
Erfahrung. Programme, die herausfinden sollen, wie gefährlich Menschen | |
sind, gibt es im amerikanischen Justizsystem seit den zwanziger Jahren. | |
Gerechnet wurde zunächst auf dem Papier. War jemand ein Mann und noch recht | |
jung, als er verurteilt wurde? Dann ist die Wahrscheinlichkeit höher, dass | |
er es wieder tun wird. Die Faktoren heißen: Alter, Alter bei der ersten | |
Tat, Waffenbesitz. | |
Die Computer finden kein Mördergen, sondern die perfekten Bedingungen für | |
ein Verbrechen. Mittlerweile ist ihre Rechenkraft so groß, ihre Speicher | |
sind so riesig, dass sich deutlich mehr Variablen einbeziehen lassen, um | |
Szenarios zu spinnen. | |
Darf man Menschen einsperren, weil ein Computer sagt, die | |
Wahrscheinlichkeit sei recht hoch, dass sie wieder eine Straftat begehen? | |
Als Teal Kozel am anderen Ende der USA von Berks Verfahren hört, hat sie | |
eine klare Antwort. „Das ist sehr schicksalsergeben“, sagt sie. Kozel, 39 | |
Jahre alt, hat kastanienbraune Haare, die sich auf ihrem Kopf türmen. Sie | |
steigert sich langsam in ihre Antwort hinein. Es regt sie richtig auf. | |
„Was Berk macht, ignoriert den menschlichen Einfluss komplett“, sagt Kozel. | |
„Selbst wenn jeder bekannte Risikofaktor auf einen einzelnen Menschen | |
zutrifft, hat dieser Mensch am Ende immer noch eine Wahl. Er entscheidet, | |
ob er Gewalt anwendet oder nicht. Ich bin Psychologin. Ich gehe immer davon | |
aus, dass es diese Wahl gibt. Selbst bei den gewalttätigsten Kriminellen. | |
Ich habe mit wirklich vielen Kriminellen gesprochen, mit Hunderten, selbst | |
bei impulsivsten Taten gibt es einen Moment der Entscheidung. Wenn man nur | |
auf die Statistik vertraut, um manche Menschen aus der Gesellschaft | |
auszuschließen, ist das ein wirklich fatalistischer Blick auf die Dinge. | |
Ich weiß nicht, ob ich in so einer Welt leben will.“ | |
## Algorithmen sind wie Kuchen, Berk probiert sie | |
Kozel arbeitet als Psychologin für die Bewährungsbehörde von Kalifornien. | |
Sie setzen dort wesentlich stärker auf psychologische Tests, die aus langen | |
Gesprächen entstehen. Ein ähnlich langer, ähnlich dunkler Tisch wie bei den | |
Kollegen in Pennsylvania. Nur sitzen um ihn drei Frauen. Kozel, eine | |
Kollegin und die Vorsitzende. Sie nennen ihren Ansatz strukturierte, | |
professionelle Beurteilung. In Kalifornien vertrauen sie vor allem auf das | |
Urteil von Menschen. | |
Richard Berk hat sich ein Bild überlegt, um sein Verfahren zu erläutern. | |
Mit seiner tiefen Erklärstimme legt er in seinem kühlen Büro alles langsam | |
dar. „Nehmen wir mal an, Sie wollten einen Kuchen backen“, sagt Berk. „Sie | |
haben das Rezept, zwei Eier, Milch, Mehl. Sie rühren alles in einer | |
Schüssel zusammen. Dabei wissen Sie ganz genau, welche Zutaten in der | |
Schüssel sind. Schließlich geben Sie alles in eine Backform, die Sie in den | |
Ofen schieben, eine Dreiviertelstunde. Im Ofen passieren dann eine ganze | |
Reihe komplizierter chemischer und physikalischer Vorgänge, die Sie nicht | |
verstehen. Selbst Chemiker oder Physiker begreifen sie nicht genau. Wie | |
wird aus einer flüssigen Masse dieser fluffige, leckere Kuchen? Wenn der | |
Kuchen schmeckt, verwenden Sie das Rezept öfter. Wenn nicht, ändern Sie es. | |
Okay?“ | |
„So funktioniert der Algorithmus“, sagt Berk. „Der Computer arbeitet, und | |
ich probiere den Kuchen.“ Wenn man Leute von den Algorithmen überzeugen | |
will, sei das das Schwierigste, findet er: Sie müssen die Vorhersage | |
akzeptieren, obwohl sie die Mechanismen nicht unbedingt verstehen. | |
Der Jurist Frank Pasquale hat ein Buch gegen diese Art von Berechnungen | |
geschrieben. Es heißt „The Black Box Society“. Pasquale kritisiert darin, | |
dass eine wachsende Zahl der Entscheidungen von Justiz, Versicherungen oder | |
Online-Unternehmen mit Algorithmen getroffen werden, die genau solche Black | |
Boxes sind. Undurchschaubar. | |
Oft werden die Risikoanalysen für die Gefängnisse nicht von unabhängigen | |
Wissenschaftlern wie Berk gemacht, sondern von privaten Firmen. Wenn man | |
dann in den Bewährungsbehörden fragt, was genau die Instrumente eigentlich | |
berechneten, antworten die Verantwortlichen manchmal: „Tja, das liegt | |
hinter dem magischen Vorhang.“ Berk dagegen publiziert viel. Man kann | |
nachlesen, was er tut, auch wenn man dann immer noch nicht versteht, was im | |
Ofen vor sich geht. Er nimmt die üblichen Informationen: Alter, Einkommen, | |
Vorstrafen, Drogendelikte, Gewaltdelikte, Waffendelikte. Sein Programm | |
würfelt all die Daten wieder und wieder neu zusammen, lässt hunderte Male | |
die Wahrscheinlichkeit für diesen einen Menschen berechnen. Am Ende wird | |
aus allen Durchgängen das Urteil gebildet. Zu jedem Urteil liefert Berk | |
einen Prozentsatz, der angibt, wie sicher der Algorithmus sich ist. Wie oft | |
er zum selben Ergebnis kam. | |
Berks Methode, sagen auch Leute, die ihn bewundern, hat nur einen Makel: | |
Die Zahl derjenigen, die als gefährlich eingestuft werden, obwohl sie es | |
nicht sind, liegt bei seinen Programmen höher als bei anderen. Mehr | |
Menschen sitzen länger, als sie müssten. Das ist der Kollateralschaden. | |
Er, sagt Berk, liefere nur die Fakten. Die Politik müsse entscheiden, was | |
sie daraus mache. | |
In den Gefängnissen der USA nahm die statistische Risikoanalyse in den | |
siebziger Jahren stark zu. Es waren eher linke Soziologen, die die Technik | |
förderten, weil sie mit ihrer Hilfe beweisen wollten, dass viele der | |
Menschen, die eingesperrt werden, deutlich weniger gefährlich sind, als | |
Konservative gern pauschal behaupteten. | |
Dass sich die Algorithmen gerade jetzt so stark verbreiten, hat vor allem | |
ökonomische Gründe. Für die 50.000 Menschen in seinen Gefängnissen zahlt | |
etwa der Staat Pennsylvania 2 Milliarden Dollar im Jahr, 7 Prozent seines | |
gesamten Budgets. Vor dreißig Jahren machte der Anteil nur 2 Prozent des | |
Budgets aus. Es gibt in Pennsylvania 2.000 Betten zu wenig für all die | |
Häftlinge. Seit 1970 hat sich die Zahl der Gefangenen in den Vereinigten | |
Staaten um das Siebenfache vergrößert, von etwa 300.000 auf 2,2 Millionen. | |
Die Algorithmen, hoffen einige, können helfen, mehr Leute guten Gewissens | |
zu entlassen. | |
## Männer vertrauen Maschinen, Frauen der Psychologie | |
John Tuttle, der Vorsitzende der Bewährungsbehörde von Pennsylvania, wird | |
bald entscheiden müssen, ob er Berks Maschinen nach dem Testbetrieb | |
übernimmt. Er wirkt entschlossen, das zu tun, auch wenn er es erst mit | |
seinen Kollegen besprechen muss. Sie werden sich einen Tag für die | |
Diskussion nehmen. „Mindestens einen halben“, sagt er. | |
Bisher scheinen sich Tuttle und seine Leute stark auf den Algorithmus zu | |
verlassen. „Sie lassen jemanden mit höherer Wahrscheinlichkeit frei, wenn | |
zwei Dinge zutreffen“, sagt Berk. „Die Prognose muss sagen, dass er oder | |
sie nicht gewalttätig wird. Und sie muss das mit großer Sicherheit tun.“ | |
Wenn man Tuttle und seinen technischen Direktor im Konferenzraum in | |
Harrisburg fragt, warum sie die Entscheidung nicht gleich dem Algorithmus | |
überlassen, sagt der Direktor, er glaube nicht, dass eine Maschine das | |
jemals tun könne. | |
„Das wäre so was wie künstliche Intelligenz“, sagt John Tuttle. | |
„Das wäre zu sehr wie Minority Report“, wendet der Direktor ein. | |
„Minority Report“, eine Kurzgeschichte von Philipp K. Dick. In einem Raum | |
der Precrime-Behörde kauern drei verkabelte Mutanten. Schwachsinnige, denen | |
man die Fähigkeit antrainiert hat, in die Zukunft zu sehen. Ihre Fähigkeit | |
wird genutzt, um Mörder schon vor dem Mord festzunehmen. In fünf Jahren hat | |
die Republik nur einen Mord gesehen. Jetzt allerdings steht auf einem der | |
Vorhersagezettel ein seltsamer Name: John Anderton, der Leiter der Behörde | |
persönlich. | |
Wenn der Mörder weiß, dass er morden wird, hält ihn das vom Morden ab? | |
Das Wissen um die Zukunft verändert die Zukunft, unterschiedliches Wissen | |
schafft unterschiedliche Zukünfte. Damit spielt Philipp K. Dick, der | |
Science-Fiction-Autor. Steven Spielberg hat aus „Minority Report“ einen | |
Film gemacht. | |
Über einen Flachbildfernseher ist neben Tuttle und seinem Direktor auch ein | |
Bewährungshelfer zugeschaltet. „Je härter es wird, all seine Fälle zu | |
schaffen, desto mehr verlässt man sich auf die statistische Analyse“, sagt | |
der. Seine Behörde sei ziemlich überlastet, ergänzt Tuttle. | |
Die Maschinen treffen also schon einen Großteil der Entscheidungen. Die | |
Menschen gestehen sich das nur noch nicht ein. Maschinen wirken | |
unbestechlich, man kann sich gut hinter ihnen verstecken. | |
Forscher, die abgeglichen haben, ob die Psychologinnen oder die Computer | |
bessere Vorhersagen treffen, sagen, die Unterschiede seien fast | |
unerheblich. Menschen tendierten eher zu den mittleren Bewertungen und | |
hätten Angst vor Extremen. | |
Drei Männer um einen Konferenztisch. Drei Frauen um einen anderen. Zwei | |
Bewährungsbehörden, eine an der Ostküste, eine an der Westküste. Die einen | |
eher für das Urteil der Maschinen, die anderen eher für das der Menschen. | |
Es motiviere Gefangene, wenn sie im Gespräch den Eindruck hätten, sie | |
verstünden, wie sie sich ändern müssten, um besser bewertet zu werden, sagt | |
Teal Kozel, die Psychologin. „Wenn es eine Chance gäbe, dass die Kommission | |
der Bewährungsbehörde einen guten Menschen in ihm sehe. Vielleicht schaffe | |
er es dann auch selbst wieder“, habe einer mal zu ihr gesagt. | |
Und wie, bitteschön, gibt Kozel zu bedenken, verändere es die Zukunft, wenn | |
jemand wegen statistischer Berechnungen weniger Hilfen bekäme, weil er als | |
ungefährlicher gelte? Werde er dann nicht gerade dadurch wieder | |
gefährlicher? | |
Wie verändert das Bild von der Zukunft die Zukunft, allein weil man es | |
zeichnet? | |
Im Juli 2013 steht plötzlich eine Kommandantin der Polizei bei Robert | |
McDaniel vor der Haustür. Sie sagt, sie habe eine Akte über ihn auf ihrem | |
Schreibtisch. Er solle jetzt mal besser aufpassen. | |
McDaniel hatte die High School abgebrochen, gekifft, war gelegentlich von | |
der Polizei festgehalten worden, nie etwas Schlimmes, behauptete er, als | |
ein Reporter der Chicago Tribune ihn danach fragte. Vermutlich weil ein | |
Bekannter von ihm erschossen worden war, landete er auf einer Liste der | |
Polizei von Chicago. Die „Heat List“. Auf ihr stehen Personen, die ein | |
Algorithmus aus den Datenbanken herausgepickt hat. | |
Der Fall ging um die Welt. McDaniel ist das erste öffentlich anerkannte | |
Algorithmus-Opfer, wenn es um Polizei oder Justiz geht. | |
## Verbrecher sind wie du und ich, selten wirklich böse | |
In Chicago berechnet die Polizei seit gut zwei Jahren, wie groß die | |
Wahrscheinlichkeit für bestimmte Menschen ist, erschossen zu werden. Oder | |
jemanden zu erschießen. Es geht vorerst nur so grob. Das Chicago Police | |
Department hat sich dafür von einem Wissenschaftler, der vorher viel mit | |
Bilderkennungsverfahren experimentiert hat, einen Algorithmus entwerfen | |
lassen. Chicago verfügt über eine der größten Polizeidatenbanken der | |
Vereinigten Staaten. Daraus zieht sich das Programm Informationen darüber, | |
ob jemand schon einmal geschossen hat oder ob auf ihn geschossen wurde, ob | |
er verurteilt worden ist und wenn ja wofür, ob er wegen Waffenbesitzes | |
angeklagt war oder als Gangmitglied gilt. 440 Personen werden so für eine | |
„Heat List“ ausgewählt, zwanzig für jeden Polizeibezirk. Die Polizisten | |
gehen dann von Tür zu Tür und warnen diese Personen, dass sie über ihren | |
Lebenswandel nachdenken sollten. | |
Der Hamburger Polizeipräsident und der Innensenator waren schon da, um sich | |
die Technik anzusehen. | |
Robert McDaniel ist einer wie viele der Jungs aus jenen Vierteln. Die | |
Mutter arbeitete bei der Restaurantkette Red Lobster, er hing auf der | |
Straße herum. Mittlerweile war er auch ein-, zweimal im Gefängnis. Er ist | |
einer dieser Jungs, die die Polizei sich gern genauer anschaut, weil sie | |
schwarz sind, weil es in ihrer Nachbarschaft oft Ärger gibt. Auch | |
Algorithmen durchleuchten sie genauer als andere. | |
Ein Junge, wie auch Richard Berk mit vielen gearbeitet hat, damals in | |
Baltimore. | |
Berk ist erst im Laufe der Neunziger zum Kriminologen geworden. Jemand von | |
der Gefängnisbehörde rief an und wollte wissen, ob er die Gefährlichkeit | |
von Insassen schätzen könne, damit sie richtig in die einzelnen | |
Sicherheitsstufen eingeteilt würden. Berk hatte zuvor als Soziologe | |
versucht zu prognostizieren, wann Menschen bereit sind, mehr Wasser zu | |
sparen. Er war damals noch in Los Angeles, an der University of California. | |
Er hat sich auch mit dem Klimawandel beschäftigt. | |
Sein Ziel, sagt Berk, war es immer, die bestmöglichen Informationen zu | |
liefern. Damit Politiker, Polizeichefs oder Behördenleiter die besten | |
Entscheidungen treffen. Natürlich hätte er auch zu einem Unternehmen gehen | |
können und Kreditkartenbetrug vorhersagen. Manche Kollegen haben das | |
gemacht. Aber er ist Wissenschaftler. Er will unabhängig sein. | |
Als Richard Berk noch ein junger Mann war, er hatte die Universität Yale | |
besucht, nahm er den Job in Baltimore an. Er sollte andere junge Männer auf | |
der Straße davon abhalten, sich gegenseitig umzubringen. Klassische | |
Sozialarbeit. Mit den Jungs am Wochenende rausfahren, Jobs vermitteln. Vier | |
Jahre lang. | |
Berk weiß, dass viele Baltimore vor allem aus der HBO-Serie „The Wire“ | |
kennen, die von genau solchen Jungs handelt. Hat er nie gesehen. Er schaut | |
wenig fern. | |
Die Zeit in Baltimore hat seine Sicht auf die Dinge geprägt: „Verbrecher | |
sind selten wirklich böse. Manchmal gibt es auch die, klar. Aber die | |
meisten sind Leute wie du und ich, die in eine Situation geraten sind, in | |
der sie etwas wirklich Bescheuertes gemacht haben. Vielleicht hätten wir | |
dasselbe getan.“ Es gehe oft nur darum, wer es zuerst schafft, sich eine | |
Waffe zu besorgen. Das sei ihm damals schon wie ein interessantes | |
politisches, ein moralisches Problem vorgekommen. | |
Berk glaubt, dass seine Algorithmen helfen können. Die Vorhersage, man | |
könnte zum Verbrecher werden, wäre dann fast eine Art Glückslos. Er stellt | |
sich das so vor, dass Sozialprogramme vorsorglich hochgefahren würden, | |
Collegeausbildungen bezahlt. Und wenn man es schon vor der Geburt wüsste, | |
sagt Berk. Man könnte so viel tun. Besseres Essen für die Mutter. | |
Alkoholentzug. Drogenentzug. Eine Hebamme. | |
Muss man jemanden dafür erst zum potenziellen Verbrecher stempeln? | |
Die Alternative zu diesem Glückslos wäre, dass man gefährdete Menschen | |
einfach vorsichtshalber wegsperrt. Was wohl herauskäme, wenn man das in den | |
USA zur Abstimmung stellen würde? | |
Es gibt ein weiteres Buch, das sich gegen alles richtet, was Berk tut. Es | |
heißt „Gegen Vorhersagen“ und stammt auch von einem Jura-Professor. Bernard | |
E. Harcourt sagt darin: Alle Instrumente zur Risikoanalyse sind | |
rassistisch. Es habe, stellt er fest, wenn man sich mit ihm darüber | |
unterhält, eine Zeit gegeben, in der der Faktor Rasse offen einfloss. Das | |
war in den Zwanzigern. „Ein deutscher Vater galt damals als schlechtes | |
Zeichen“, erzählt er. Längst werden solche Kriterien nicht mehr offen | |
einbezogen. Ob jemand schwarz ist oder Hispanic, bahnt sich trotzdem seinen | |
Weg in die Berechnungen, argumentiert Harcourt. Über Umweg-Variablen wie | |
Nachbarschaft etwa. „Der Rassismus war damals juristisch, jetzt ist er | |
faktisch“, schließt Harcourt. | |
Berk weicht solchen Argumenten aus. Er spreche lieber über den Faktor | |
Geschlecht, der sei nicht ganz so aufgeladen wie „Race“. Gerade jetzt, wo | |
sich der Polizistenmord von Ferguson zum ersten Mal jährt. Wenn eine | |
Behörde also beschließe, das Geschlecht außen vor zu lassen, weil das | |
diskriminieren könnte, sage er: „Alles klar. Womöglich ist ihre | |
Vorhersagekraft um 15 Prozent vermindert. Es werden also in Pennsylvania | |
10.000 Verbrechen geschehen, die wir nicht vorhersagen können. Wollen Sie | |
das? Sie entscheiden.“ | |
Das sagt Berk gern: Sie entscheiden. | |
Er stellt sich als Dienstleister dar, der der Öffentlichkeit die Zahlen | |
liefert. Aber natürlich legt seine Frage einen Schluss nahe. | |
## Eine rassistische Welt führt zu rassistischen Computern | |
Mister Berk, ist das nicht ein etwas formalistischer Ansatz, um eine so | |
große Frage zu beantworten? | |
„Ich kann Race natürlich rausnehmen. Nehmen wir also mal alles raus, was | |
mit Race verbunden sein könnte – was ja heutzutage fast alles wäre. Gehen | |
wir davon aus, das führt nun zu 35 mehr Morden im Jahr. Wer werden denn die | |
Opfer sein? Menschen töten Menschen wie sich selbst. Wenn also mehr | |
afroamerikanische Straftäter mit hohem Risiko freigelassen werden, | |
resultieren daraus mehr afroamerikanische Opfer. Wollen Sie das?“ | |
Sie entscheiden. | |
Für so eine Entscheidung müsste man eigentlich herausfinden, wie genau sich | |
die Algorithmen auf wen genau auswirken. Die Gefangenen, deren Schicksal | |
durchgerechnet wird, haben aber gegen Ende ihrer Haftzeit meist keinen | |
Anwalt mehr. Sie sitzen in einem toten Winkel der Gesellschaft. Kaum jemand | |
überprüft das Urteil der Computer. | |
Berks Gegner würden nun sagen, dass seine Algorithmen mit dafür | |
verantwortlich sind, dass junge schwarze Männer deutlich häufiger in solche | |
Situationen geraten. Algorithmen gehen vom Status quo aus, den schreiben | |
sie mit ihren Berechnungen fort. Schwarze werden intensiver beobachtet und | |
also auch häufiger festgenommen. Weiße kommen davon. | |
„Auf jeder Stufe des Justizsystems haben Schwarze schlechtere Chancen“, | |
sagt Bernard E. Harcourt, der Autor von „Gegen Vorhersagen“. | |
Berk geht auf solche Punkte nie direkt ein. Er füttere nur den Algorithmus. | |
Seine Zahlen seien korrekt. | |
Der Algorithmus kann ja nicht rassistisch sein, oder? Es ist ja nur ein | |
Computer? | |
„Natürlich ist er vollkommen rassistisch“, sagt einer von Berks Kritikern, | |
ein Statistiker. Berks Zahlen stammten schließlich aus einer rassistischen | |
Wirklichkeit. | |
Berk sagt: „Der Algorithmus hat ja keine eigene Motivation. Er betrachtet | |
nur die Fakten. Ein Algorithmus hat eine wesentlich bessere Faktengrundlage | |
als Menschen mit all ihren Vorurteilen. Wenn es faktisch richtig ist, dass | |
Männer häufiger Frauen töten als andersherum, dann sollte das doch in so | |
einen Entscheidungsprozess einbezogen werden.“ | |
Für Berk hat das alles eine gewisse Unaufhaltsamkeit. Er hat für den | |
Bundesstaat Maryland einmal versucht herauszufinden, welche | |
Jugendstraftäter auch nach ihrem 18. Geburtstag straffällig werden würden. | |
Das habe ziemlich gut funktioniert. Aber die Verantwortlichen hätten Angst | |
bekommen, es wirklich einzuführen. | |
Haben Sie keine Angst, dass all die Informationen missbraucht werden | |
könnten, Mister Berk? | |
„Technologien können immer für gute oder für böse Zwecke verwendet werden. | |
Atomenergie wäre ein klassisches Beispiel. Soll man deshalb mit dem | |
Erfinden aufhören? Daten werden doch jetzt schon missbraucht. Und auch ohne | |
Daten werden ganz schreckliche Entscheidungen getroffen.“ | |
Wir würden uns zwangsläufig in diese Richtung bewegen, sagt Berk, „weil die | |
privaten Unternehmen es schon tun. Google sammelt alles. Das macht auch | |
Amazon, das tun viele Player im Gesundheitssystem, Versicherungen. Wir | |
werden sehr persönliche, sehr genaue Daten von jedem haben. Und dann? | |
Werden wir sie nutzen? Wie werden wir sie nutzen?“ | |
Sie entscheiden. | |
9 Mar 2016 | |
## AUTOREN | |
Johannes Gernert | |
## TAGS | |
Algorithmus | |
Psychologie | |
Verbrechen | |
Individualismus | |
Strafvollzug | |
Schwerpunkt Polizeikontrollen in Hamburg | |
Einbruch | |
Prognosen | |
Schwerpunkt Klimawandel | |
künstliche Intelligenz | |
Algorithmen | |
Justiz | |
Schwerpunkt Polizeikontrollen in Hamburg | |
## ARTIKEL ZUM THEMA | |
Überwachungskameras in Gefängnissen: Lückenlose Auswertung | |
Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von | |
Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen. | |
Polizei will Erlaubnis für Datenanalysen: Präventives Durchleuchten | |
Die Reform des Hamburger Polizeigesetzes soll automatisierte Datenanalysen | |
ermöglichen. Die Polizei will damit Straftaten vorhersehen können. | |
Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“ | |
Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche | |
begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet | |
werden. | |
Prognosesoftware für Einbrüche: Drah di net um … | |
… der Kommissar geht um. Durch sogenannte vorausschauende Polizeiarbeit | |
sollen Verbrechen verhindert werden. | |
Debatte Klimawandel: Die Weltrettungsmaschine | |
Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus | |
Silicon Valley brauchen wir einen linken Optimismus der Technik. | |
Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft | |
„Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das | |
Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt. | |
Berechnung des Alltags: Wir sind Algorithmen-Zombies | |
Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass | |
wir es merken, und machen uns so manipulierbar. | |
Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist | |
Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es | |
Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden. |