| # taz.de -- Algorithmen und Kriminalität: Er wird, er wird nicht, er wird … | |
| > Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines | |
| > Menschen herausfinden, ob der straffällig wird. Aber will man das? | |
| Bild: Münztelefone für Inhaftierte in einem Gefängnis bei Phoenix, Arizona, … | |
| Richard Berk ist ein alter weißer Mann, der dafür sorgt, dass junge, | |
| schwarze Männer länger im Gefängnis sitzen. Er tut das mit einem | |
| Computerprogramm, von dem er ganz offen zugibt, dass niemand genau | |
| nachvollziehen kann, wie es funktioniert. | |
| Berk, den eigentlich alle Dick nennen, ist 72 Jahre alt, hat eine Glatze, | |
| einen weißen Bart ums Kinn, dicke Tränensäcke unter den Augen, und er mag | |
| Fakten. Er betrachtet es als seinen Job, die Fakten in die Welt zu bringen, | |
| raus in die Verwaltungen der Gefängnisse, in die Polizeistationen der USA, | |
| zu den Sozialämtern. Berk ist Soziologe. Er arbeitet seit etlichen Jahren | |
| mit den ausgefeiltesten statistischen Programmen daran, immer genauere | |
| Vorhersagen zu treffen. Wird jemand seine Kinder schlagen? Wird jemand | |
| morden? | |
| Berk sagt, dass er für ungeborene Babys jetzt schon mit ziemlicher | |
| Sicherheit prognostizieren könnte, ob aus ihnen einmal Verbrecher werden. | |
| Traue sich nur noch keiner. Werde aber bald kommen. Fünf Jahre vielleicht, | |
| sagt Berk. | |
| Es ist einer der heißesten Tage eines heißen Sommers. Die Hochhäuser | |
| schwitzen aus ihren Klimaanlagen, das Kondenswasser tropft nur so aus den | |
| röhrenden Kästen an den Außenwänden der Gebäude. Unten auf den Straßen | |
| erschießen sich so viele Leute wie lange nicht mehr. Junge Leute vor allem, | |
| schwarze. Die Polizeireporter werden bald anfangen zu fragen, warum die | |
| Mordraten in diesem Sommer überall durch die Decke knallen. Baltimore, | |
| Chicago, New York. Auch in Philadelphia, wo Berk jetzt in seinem kühlen | |
| Büro sitzt, zwischen Bücherstapeln, Familienfotos und Computern, und sagt, | |
| dass man ihn nicht missverstehen solle. | |
| „Ich versuche, schwarze Leben zu retten“, sagt Berk. | |
| Es gibt natürlich etliche Leute, die das ganz anders sehen, weil Berks | |
| Algorithmen vor allem schwarze Gefangene als gefährlich einstufen. | |
| Bürgerrechtler, schwarze Aktivisten, Juristen haben ganze Bücher gegen das | |
| geschrieben, was er da macht. | |
| Deshalb sagt er es ja. | |
| An der Wand über seinem Schreibtisch hängt eine rosa Uhr, auf der „Data | |
| Analysis Inc.“ steht. Zur Blue Jeans trägt Berk ein kurzärmeliges Hemd, | |
| fliederfarben. Seine Stimme ist tief und unbeirrbar. Gegenargumente hört er | |
| kurz an. Dann legt er wieder dar, wie es wirklich ist. Nur manchmal muss er | |
| zwischendurch kurz husten. | |
| Richard Berk ist spät im Leben Vater geworden. Sein Sohn ist siebzehn. Sie | |
| diskutieren oft darüber, welche Rolle Maschinen künftig spielen. Die | |
| Antwort, sagt Berk, laute: „Maschinen werden immer mehr Entscheidungen | |
| treffen, weil sie es einfach besser können.“ | |
| Mit der Intelligenz seiner Rechenmaschinen versucht Berk in Maryland fürs | |
| Sozialamt herauszufinden, ob Kinder in einer Familie Missbrauch fürchten | |
| müssen. Er arbeitet mit der Polizei in Philadelphia daran, vorherzusagen, | |
| ob häusliche Gewalt sich in bestimmten Haushalten wiederholt. In | |
| Philadelphia will er außerdem ermitteln, ob jemand wohl zum Gerichtstermin | |
| erscheint oder eher nicht, damit die Richter wissen, ob sie | |
| Untersuchungshaft verhängen sollen. | |
| Google sammelt Daten, um daraus zu lesen, welchen Buchstaben wir als | |
| nächsten in den Suchschlitz tippen. Facebook findet mit seinen Daten | |
| heraus, welche unserer Freunde uns am meisten interessieren. Banken | |
| ermitteln, wie lange unser Geld noch reicht. Versicherungen versuchen | |
| festzustellen, wie wahrscheinlich es ist, dass wir mit 55 an | |
| Schilddrüsenkrebs erkranken. Computer zeichnen Lebenswege. Sie haben die | |
| Macht, uns zu lenken. | |
| Längst sind sie auch für Polizei und Justiz im Einsatz, deutsche Polizisten | |
| wollen so Einbrüche vorhersehen. „Predictive Policing“ bezeichnet | |
| Bundesinnenminister Thomas de Maizière als das polizeiliche Instrument der | |
| Zukunft. | |
| Berk gilt in seinem Gebiet als einer der besten in den USA, vielleicht | |
| sogar der Welt. Das sagen viele seiner Kollegen. Seinen neuesten | |
| Algorithmus hat er für die Behörde in Pennsylvania entworfen, die | |
| entscheidet, wann jemand auf Bewährung raus darf. | |
| Das Programm soll Wahrscheinlichkeiten dafür liefern, ob ein Gefangener | |
| draußen wieder ein Verbrechen begehen wird, und wenn ja, ob damit zu | |
| rechnen ist, dass es ein Gewaltverbrechen ist. Die Behörde testet den | |
| Algorithmus gerade. Wahrscheinlich wird sie ihn bald übernehmen. | |
| Die Zahlen, die Berks Maschinen berechnen, stehen bei John Tuttle auf dem | |
| Zettel, wenn er Gefangene anhört, um zu entscheiden, wann sie rausdürfen. | |
| Meist führt Tuttle die Gespräche von seinem Büro aus, die Gefangenen werden | |
| dort auf einen Flachbildfernseher übertragen. Videokonferenz. | |
| Tuttle, 59 Jahre alt, ist der Vorsitzende der Bewährungsbehörde von | |
| Pennsylvania, ein massiger Mann mit wenig Resthaar, aber umso mehr Humor. | |
| Er hat seinen technischen Direktor mit in den Konferenzraum gebracht, um | |
| die Sache mit dem Algorithmus zu erklären. Ein langer dunkler Tisch, | |
| bordeauxrote Ledersessel. Draußen, hinter dem Panoramafenster, fließt in | |
| Harrisburg der Susquehanna River vorbei, der an diesem Tag sehr niedrig | |
| steht. | |
| „Unser Job ist es, das Risiko für die Öffentlichkeit abzuwägen“, sagt der | |
| technische Direktor. „Die Statistik hilft uns dabei.“ | |
| „Erzähl ihm mal, was mein Lieblingsspruch ist“, ruft John Tuttle ihm zu. | |
| „Wir werden nicht für die Einfachen bezahlt“, sagt der Direktor. | |
| „Das ist mein Lieblingsspruch“, ruft John Tuttle. „Wir werden nicht für … | |
| Einfachen bezahlt.“ | |
| Sie kümmern sich um die schwierigen Fälle. Egal, ob es darum gehe, zu | |
| entscheiden, ob jemand rausdarf. Oder ihn dann draußen zu betreuen. „Jeder | |
| kann einfach alle einsperren. Oder die ganz Ungefährlichen rauslassen. Wir | |
| werden dafür bezahlt, dass wir die harten Entscheidungen treffen.“ | |
| Irgendwann, klar, sagt der Direktor, gehe immer irgendein Fall mies aus. | |
| „Go bad“, nennen sie das. Das sei wie beim American Football, sagt Tuttle. | |
| Man verteidigt gegen diesen einen Typen. Und man bekommt richtig aufs Maul. | |
| Man muss das aber sofort vergessen, weil sofort der nächste auf einen | |
| zugerannt kommt. So ist das mit den miesen Fällen. Es geht immer weiter. | |
| „Oder haben Sie mal von General Custer und den Indianern gehört? Die | |
| kämpften um Amerika. Da kamen immer mehr Indianer.“ Immer mehr Fälle, sagt | |
| Tuttle. Der Direktor lacht. | |
| ## Bevor jemand mordet, entscheidet er sich dafür | |
| Ein paar solcher miesen Fälle haben dazu geführt, dass sie in Pennsylvania | |
| mehr Statistik denn je verwenden. Vor sieben Jahren erschossen Exhäftlinge | |
| auf Bewährung zwei Polizisten. Der Gouverneur setzte die Bewährung eine | |
| Zeit lang komplett aus. Er wandte sich an einen Kriminologen, der mit | |
| seinen statistischen Verfahren sicherstellen sollte, dass so etwas künftig | |
| so unwahrscheinlich wird wie möglich. | |
| John Tuttle entscheidet oft über 14 Fälle an einem Tag, hintereinander weg. | |
| Seit damals hat er dafür neben dem Lebenslauf der Gefangenen und anderen | |
| Kennziffern auch eine Gefahreneinschätzung. Sie zeigt das Risiko: hoch, | |
| mittel, niedrig. Neuerdings experimentieren sie außerdem mit einer Ampel. | |
| In kleinen Kästchen erscheinen die Fälle dann als rot, gelb oder grün. Die | |
| Ampel hat Berk in seinem Büro in Philadelphia entwickelt. Sie soll die | |
| alten Kategorien ablösen. | |
| „Mit den grünen scheint alles okay zu sein“, sagt Tuttle, „die gelben | |
| könnten was anstellen. Bei den roten musst du echt aufpassen.“ | |
| Es gehe darum, die Darth Vaders zu finden, die wirklich Bösen. Das sage | |
| Berk immer. | |
| In vielen Bundesstaaten der USA übernehmen die Algorithmen gerade mehr | |
| Entscheidungen in Gefängnissen und vor Gerichten. Pennsylvania ist einer | |
| der Staaten, die dabei am weitesten gehen. Schon im kommenden Jahr könnte | |
| die statistische Verbrechensprognose dort in Gerichtssälen eingeführt | |
| werden. Bewährungsbehörden wie die von John Tuttle haben damit lange | |
| Erfahrung. Programme, die herausfinden sollen, wie gefährlich Menschen | |
| sind, gibt es im amerikanischen Justizsystem seit den zwanziger Jahren. | |
| Gerechnet wurde zunächst auf dem Papier. War jemand ein Mann und noch recht | |
| jung, als er verurteilt wurde? Dann ist die Wahrscheinlichkeit höher, dass | |
| er es wieder tun wird. Die Faktoren heißen: Alter, Alter bei der ersten | |
| Tat, Waffenbesitz. | |
| Die Computer finden kein Mördergen, sondern die perfekten Bedingungen für | |
| ein Verbrechen. Mittlerweile ist ihre Rechenkraft so groß, ihre Speicher | |
| sind so riesig, dass sich deutlich mehr Variablen einbeziehen lassen, um | |
| Szenarios zu spinnen. | |
| Darf man Menschen einsperren, weil ein Computer sagt, die | |
| Wahrscheinlichkeit sei recht hoch, dass sie wieder eine Straftat begehen? | |
| Als Teal Kozel am anderen Ende der USA von Berks Verfahren hört, hat sie | |
| eine klare Antwort. „Das ist sehr schicksalsergeben“, sagt sie. Kozel, 39 | |
| Jahre alt, hat kastanienbraune Haare, die sich auf ihrem Kopf türmen. Sie | |
| steigert sich langsam in ihre Antwort hinein. Es regt sie richtig auf. | |
| „Was Berk macht, ignoriert den menschlichen Einfluss komplett“, sagt Kozel. | |
| „Selbst wenn jeder bekannte Risikofaktor auf einen einzelnen Menschen | |
| zutrifft, hat dieser Mensch am Ende immer noch eine Wahl. Er entscheidet, | |
| ob er Gewalt anwendet oder nicht. Ich bin Psychologin. Ich gehe immer davon | |
| aus, dass es diese Wahl gibt. Selbst bei den gewalttätigsten Kriminellen. | |
| Ich habe mit wirklich vielen Kriminellen gesprochen, mit Hunderten, selbst | |
| bei impulsivsten Taten gibt es einen Moment der Entscheidung. Wenn man nur | |
| auf die Statistik vertraut, um manche Menschen aus der Gesellschaft | |
| auszuschließen, ist das ein wirklich fatalistischer Blick auf die Dinge. | |
| Ich weiß nicht, ob ich in so einer Welt leben will.“ | |
| ## Algorithmen sind wie Kuchen, Berk probiert sie | |
| Kozel arbeitet als Psychologin für die Bewährungsbehörde von Kalifornien. | |
| Sie setzen dort wesentlich stärker auf psychologische Tests, die aus langen | |
| Gesprächen entstehen. Ein ähnlich langer, ähnlich dunkler Tisch wie bei den | |
| Kollegen in Pennsylvania. Nur sitzen um ihn drei Frauen. Kozel, eine | |
| Kollegin und die Vorsitzende. Sie nennen ihren Ansatz strukturierte, | |
| professionelle Beurteilung. In Kalifornien vertrauen sie vor allem auf das | |
| Urteil von Menschen. | |
| Richard Berk hat sich ein Bild überlegt, um sein Verfahren zu erläutern. | |
| Mit seiner tiefen Erklärstimme legt er in seinem kühlen Büro alles langsam | |
| dar. „Nehmen wir mal an, Sie wollten einen Kuchen backen“, sagt Berk. „Sie | |
| haben das Rezept, zwei Eier, Milch, Mehl. Sie rühren alles in einer | |
| Schüssel zusammen. Dabei wissen Sie ganz genau, welche Zutaten in der | |
| Schüssel sind. Schließlich geben Sie alles in eine Backform, die Sie in den | |
| Ofen schieben, eine Dreiviertelstunde. Im Ofen passieren dann eine ganze | |
| Reihe komplizierter chemischer und physikalischer Vorgänge, die Sie nicht | |
| verstehen. Selbst Chemiker oder Physiker begreifen sie nicht genau. Wie | |
| wird aus einer flüssigen Masse dieser fluffige, leckere Kuchen? Wenn der | |
| Kuchen schmeckt, verwenden Sie das Rezept öfter. Wenn nicht, ändern Sie es. | |
| Okay?“ | |
| „So funktioniert der Algorithmus“, sagt Berk. „Der Computer arbeitet, und | |
| ich probiere den Kuchen.“ Wenn man Leute von den Algorithmen überzeugen | |
| will, sei das das Schwierigste, findet er: Sie müssen die Vorhersage | |
| akzeptieren, obwohl sie die Mechanismen nicht unbedingt verstehen. | |
| Der Jurist Frank Pasquale hat ein Buch gegen diese Art von Berechnungen | |
| geschrieben. Es heißt „The Black Box Society“. Pasquale kritisiert darin, | |
| dass eine wachsende Zahl der Entscheidungen von Justiz, Versicherungen oder | |
| Online-Unternehmen mit Algorithmen getroffen werden, die genau solche Black | |
| Boxes sind. Undurchschaubar. | |
| Oft werden die Risikoanalysen für die Gefängnisse nicht von unabhängigen | |
| Wissenschaftlern wie Berk gemacht, sondern von privaten Firmen. Wenn man | |
| dann in den Bewährungsbehörden fragt, was genau die Instrumente eigentlich | |
| berechneten, antworten die Verantwortlichen manchmal: „Tja, das liegt | |
| hinter dem magischen Vorhang.“ Berk dagegen publiziert viel. Man kann | |
| nachlesen, was er tut, auch wenn man dann immer noch nicht versteht, was im | |
| Ofen vor sich geht. Er nimmt die üblichen Informationen: Alter, Einkommen, | |
| Vorstrafen, Drogendelikte, Gewaltdelikte, Waffendelikte. Sein Programm | |
| würfelt all die Daten wieder und wieder neu zusammen, lässt hunderte Male | |
| die Wahrscheinlichkeit für diesen einen Menschen berechnen. Am Ende wird | |
| aus allen Durchgängen das Urteil gebildet. Zu jedem Urteil liefert Berk | |
| einen Prozentsatz, der angibt, wie sicher der Algorithmus sich ist. Wie oft | |
| er zum selben Ergebnis kam. | |
| Berks Methode, sagen auch Leute, die ihn bewundern, hat nur einen Makel: | |
| Die Zahl derjenigen, die als gefährlich eingestuft werden, obwohl sie es | |
| nicht sind, liegt bei seinen Programmen höher als bei anderen. Mehr | |
| Menschen sitzen länger, als sie müssten. Das ist der Kollateralschaden. | |
| Er, sagt Berk, liefere nur die Fakten. Die Politik müsse entscheiden, was | |
| sie daraus mache. | |
| In den Gefängnissen der USA nahm die statistische Risikoanalyse in den | |
| siebziger Jahren stark zu. Es waren eher linke Soziologen, die die Technik | |
| förderten, weil sie mit ihrer Hilfe beweisen wollten, dass viele der | |
| Menschen, die eingesperrt werden, deutlich weniger gefährlich sind, als | |
| Konservative gern pauschal behaupteten. | |
| Dass sich die Algorithmen gerade jetzt so stark verbreiten, hat vor allem | |
| ökonomische Gründe. Für die 50.000 Menschen in seinen Gefängnissen zahlt | |
| etwa der Staat Pennsylvania 2 Milliarden Dollar im Jahr, 7 Prozent seines | |
| gesamten Budgets. Vor dreißig Jahren machte der Anteil nur 2 Prozent des | |
| Budgets aus. Es gibt in Pennsylvania 2.000 Betten zu wenig für all die | |
| Häftlinge. Seit 1970 hat sich die Zahl der Gefangenen in den Vereinigten | |
| Staaten um das Siebenfache vergrößert, von etwa 300.000 auf 2,2 Millionen. | |
| Die Algorithmen, hoffen einige, können helfen, mehr Leute guten Gewissens | |
| zu entlassen. | |
| ## Männer vertrauen Maschinen, Frauen der Psychologie | |
| John Tuttle, der Vorsitzende der Bewährungsbehörde von Pennsylvania, wird | |
| bald entscheiden müssen, ob er Berks Maschinen nach dem Testbetrieb | |
| übernimmt. Er wirkt entschlossen, das zu tun, auch wenn er es erst mit | |
| seinen Kollegen besprechen muss. Sie werden sich einen Tag für die | |
| Diskussion nehmen. „Mindestens einen halben“, sagt er. | |
| Bisher scheinen sich Tuttle und seine Leute stark auf den Algorithmus zu | |
| verlassen. „Sie lassen jemanden mit höherer Wahrscheinlichkeit frei, wenn | |
| zwei Dinge zutreffen“, sagt Berk. „Die Prognose muss sagen, dass er oder | |
| sie nicht gewalttätig wird. Und sie muss das mit großer Sicherheit tun.“ | |
| Wenn man Tuttle und seinen technischen Direktor im Konferenzraum in | |
| Harrisburg fragt, warum sie die Entscheidung nicht gleich dem Algorithmus | |
| überlassen, sagt der Direktor, er glaube nicht, dass eine Maschine das | |
| jemals tun könne. | |
| „Das wäre so was wie künstliche Intelligenz“, sagt John Tuttle. | |
| „Das wäre zu sehr wie Minority Report“, wendet der Direktor ein. | |
| „Minority Report“, eine Kurzgeschichte von Philipp K. Dick. In einem Raum | |
| der Precrime-Behörde kauern drei verkabelte Mutanten. Schwachsinnige, denen | |
| man die Fähigkeit antrainiert hat, in die Zukunft zu sehen. Ihre Fähigkeit | |
| wird genutzt, um Mörder schon vor dem Mord festzunehmen. In fünf Jahren hat | |
| die Republik nur einen Mord gesehen. Jetzt allerdings steht auf einem der | |
| Vorhersagezettel ein seltsamer Name: John Anderton, der Leiter der Behörde | |
| persönlich. | |
| Wenn der Mörder weiß, dass er morden wird, hält ihn das vom Morden ab? | |
| Das Wissen um die Zukunft verändert die Zukunft, unterschiedliches Wissen | |
| schafft unterschiedliche Zukünfte. Damit spielt Philipp K. Dick, der | |
| Science-Fiction-Autor. Steven Spielberg hat aus „Minority Report“ einen | |
| Film gemacht. | |
| Über einen Flachbildfernseher ist neben Tuttle und seinem Direktor auch ein | |
| Bewährungshelfer zugeschaltet. „Je härter es wird, all seine Fälle zu | |
| schaffen, desto mehr verlässt man sich auf die statistische Analyse“, sagt | |
| der. Seine Behörde sei ziemlich überlastet, ergänzt Tuttle. | |
| Die Maschinen treffen also schon einen Großteil der Entscheidungen. Die | |
| Menschen gestehen sich das nur noch nicht ein. Maschinen wirken | |
| unbestechlich, man kann sich gut hinter ihnen verstecken. | |
| Forscher, die abgeglichen haben, ob die Psychologinnen oder die Computer | |
| bessere Vorhersagen treffen, sagen, die Unterschiede seien fast | |
| unerheblich. Menschen tendierten eher zu den mittleren Bewertungen und | |
| hätten Angst vor Extremen. | |
| Drei Männer um einen Konferenztisch. Drei Frauen um einen anderen. Zwei | |
| Bewährungsbehörden, eine an der Ostküste, eine an der Westküste. Die einen | |
| eher für das Urteil der Maschinen, die anderen eher für das der Menschen. | |
| Es motiviere Gefangene, wenn sie im Gespräch den Eindruck hätten, sie | |
| verstünden, wie sie sich ändern müssten, um besser bewertet zu werden, sagt | |
| Teal Kozel, die Psychologin. „Wenn es eine Chance gäbe, dass die Kommission | |
| der Bewährungsbehörde einen guten Menschen in ihm sehe. Vielleicht schaffe | |
| er es dann auch selbst wieder“, habe einer mal zu ihr gesagt. | |
| Und wie, bitteschön, gibt Kozel zu bedenken, verändere es die Zukunft, wenn | |
| jemand wegen statistischer Berechnungen weniger Hilfen bekäme, weil er als | |
| ungefährlicher gelte? Werde er dann nicht gerade dadurch wieder | |
| gefährlicher? | |
| Wie verändert das Bild von der Zukunft die Zukunft, allein weil man es | |
| zeichnet? | |
| Im Juli 2013 steht plötzlich eine Kommandantin der Polizei bei Robert | |
| McDaniel vor der Haustür. Sie sagt, sie habe eine Akte über ihn auf ihrem | |
| Schreibtisch. Er solle jetzt mal besser aufpassen. | |
| McDaniel hatte die High School abgebrochen, gekifft, war gelegentlich von | |
| der Polizei festgehalten worden, nie etwas Schlimmes, behauptete er, als | |
| ein Reporter der Chicago Tribune ihn danach fragte. Vermutlich weil ein | |
| Bekannter von ihm erschossen worden war, landete er auf einer Liste der | |
| Polizei von Chicago. Die „Heat List“. Auf ihr stehen Personen, die ein | |
| Algorithmus aus den Datenbanken herausgepickt hat. | |
| Der Fall ging um die Welt. McDaniel ist das erste öffentlich anerkannte | |
| Algorithmus-Opfer, wenn es um Polizei oder Justiz geht. | |
| ## Verbrecher sind wie du und ich, selten wirklich böse | |
| In Chicago berechnet die Polizei seit gut zwei Jahren, wie groß die | |
| Wahrscheinlichkeit für bestimmte Menschen ist, erschossen zu werden. Oder | |
| jemanden zu erschießen. Es geht vorerst nur so grob. Das Chicago Police | |
| Department hat sich dafür von einem Wissenschaftler, der vorher viel mit | |
| Bilderkennungsverfahren experimentiert hat, einen Algorithmus entwerfen | |
| lassen. Chicago verfügt über eine der größten Polizeidatenbanken der | |
| Vereinigten Staaten. Daraus zieht sich das Programm Informationen darüber, | |
| ob jemand schon einmal geschossen hat oder ob auf ihn geschossen wurde, ob | |
| er verurteilt worden ist und wenn ja wofür, ob er wegen Waffenbesitzes | |
| angeklagt war oder als Gangmitglied gilt. 440 Personen werden so für eine | |
| „Heat List“ ausgewählt, zwanzig für jeden Polizeibezirk. Die Polizisten | |
| gehen dann von Tür zu Tür und warnen diese Personen, dass sie über ihren | |
| Lebenswandel nachdenken sollten. | |
| Der Hamburger Polizeipräsident und der Innensenator waren schon da, um sich | |
| die Technik anzusehen. | |
| Robert McDaniel ist einer wie viele der Jungs aus jenen Vierteln. Die | |
| Mutter arbeitete bei der Restaurantkette Red Lobster, er hing auf der | |
| Straße herum. Mittlerweile war er auch ein-, zweimal im Gefängnis. Er ist | |
| einer dieser Jungs, die die Polizei sich gern genauer anschaut, weil sie | |
| schwarz sind, weil es in ihrer Nachbarschaft oft Ärger gibt. Auch | |
| Algorithmen durchleuchten sie genauer als andere. | |
| Ein Junge, wie auch Richard Berk mit vielen gearbeitet hat, damals in | |
| Baltimore. | |
| Berk ist erst im Laufe der Neunziger zum Kriminologen geworden. Jemand von | |
| der Gefängnisbehörde rief an und wollte wissen, ob er die Gefährlichkeit | |
| von Insassen schätzen könne, damit sie richtig in die einzelnen | |
| Sicherheitsstufen eingeteilt würden. Berk hatte zuvor als Soziologe | |
| versucht zu prognostizieren, wann Menschen bereit sind, mehr Wasser zu | |
| sparen. Er war damals noch in Los Angeles, an der University of California. | |
| Er hat sich auch mit dem Klimawandel beschäftigt. | |
| Sein Ziel, sagt Berk, war es immer, die bestmöglichen Informationen zu | |
| liefern. Damit Politiker, Polizeichefs oder Behördenleiter die besten | |
| Entscheidungen treffen. Natürlich hätte er auch zu einem Unternehmen gehen | |
| können und Kreditkartenbetrug vorhersagen. Manche Kollegen haben das | |
| gemacht. Aber er ist Wissenschaftler. Er will unabhängig sein. | |
| Als Richard Berk noch ein junger Mann war, er hatte die Universität Yale | |
| besucht, nahm er den Job in Baltimore an. Er sollte andere junge Männer auf | |
| der Straße davon abhalten, sich gegenseitig umzubringen. Klassische | |
| Sozialarbeit. Mit den Jungs am Wochenende rausfahren, Jobs vermitteln. Vier | |
| Jahre lang. | |
| Berk weiß, dass viele Baltimore vor allem aus der HBO-Serie „The Wire“ | |
| kennen, die von genau solchen Jungs handelt. Hat er nie gesehen. Er schaut | |
| wenig fern. | |
| Die Zeit in Baltimore hat seine Sicht auf die Dinge geprägt: „Verbrecher | |
| sind selten wirklich böse. Manchmal gibt es auch die, klar. Aber die | |
| meisten sind Leute wie du und ich, die in eine Situation geraten sind, in | |
| der sie etwas wirklich Bescheuertes gemacht haben. Vielleicht hätten wir | |
| dasselbe getan.“ Es gehe oft nur darum, wer es zuerst schafft, sich eine | |
| Waffe zu besorgen. Das sei ihm damals schon wie ein interessantes | |
| politisches, ein moralisches Problem vorgekommen. | |
| Berk glaubt, dass seine Algorithmen helfen können. Die Vorhersage, man | |
| könnte zum Verbrecher werden, wäre dann fast eine Art Glückslos. Er stellt | |
| sich das so vor, dass Sozialprogramme vorsorglich hochgefahren würden, | |
| Collegeausbildungen bezahlt. Und wenn man es schon vor der Geburt wüsste, | |
| sagt Berk. Man könnte so viel tun. Besseres Essen für die Mutter. | |
| Alkoholentzug. Drogenentzug. Eine Hebamme. | |
| Muss man jemanden dafür erst zum potenziellen Verbrecher stempeln? | |
| Die Alternative zu diesem Glückslos wäre, dass man gefährdete Menschen | |
| einfach vorsichtshalber wegsperrt. Was wohl herauskäme, wenn man das in den | |
| USA zur Abstimmung stellen würde? | |
| Es gibt ein weiteres Buch, das sich gegen alles richtet, was Berk tut. Es | |
| heißt „Gegen Vorhersagen“ und stammt auch von einem Jura-Professor. Bernard | |
| E. Harcourt sagt darin: Alle Instrumente zur Risikoanalyse sind | |
| rassistisch. Es habe, stellt er fest, wenn man sich mit ihm darüber | |
| unterhält, eine Zeit gegeben, in der der Faktor Rasse offen einfloss. Das | |
| war in den Zwanzigern. „Ein deutscher Vater galt damals als schlechtes | |
| Zeichen“, erzählt er. Längst werden solche Kriterien nicht mehr offen | |
| einbezogen. Ob jemand schwarz ist oder Hispanic, bahnt sich trotzdem seinen | |
| Weg in die Berechnungen, argumentiert Harcourt. Über Umweg-Variablen wie | |
| Nachbarschaft etwa. „Der Rassismus war damals juristisch, jetzt ist er | |
| faktisch“, schließt Harcourt. | |
| Berk weicht solchen Argumenten aus. Er spreche lieber über den Faktor | |
| Geschlecht, der sei nicht ganz so aufgeladen wie „Race“. Gerade jetzt, wo | |
| sich der Polizistenmord von Ferguson zum ersten Mal jährt. Wenn eine | |
| Behörde also beschließe, das Geschlecht außen vor zu lassen, weil das | |
| diskriminieren könnte, sage er: „Alles klar. Womöglich ist ihre | |
| Vorhersagekraft um 15 Prozent vermindert. Es werden also in Pennsylvania | |
| 10.000 Verbrechen geschehen, die wir nicht vorhersagen können. Wollen Sie | |
| das? Sie entscheiden.“ | |
| Das sagt Berk gern: Sie entscheiden. | |
| Er stellt sich als Dienstleister dar, der der Öffentlichkeit die Zahlen | |
| liefert. Aber natürlich legt seine Frage einen Schluss nahe. | |
| ## Eine rassistische Welt führt zu rassistischen Computern | |
| Mister Berk, ist das nicht ein etwas formalistischer Ansatz, um eine so | |
| große Frage zu beantworten? | |
| „Ich kann Race natürlich rausnehmen. Nehmen wir also mal alles raus, was | |
| mit Race verbunden sein könnte – was ja heutzutage fast alles wäre. Gehen | |
| wir davon aus, das führt nun zu 35 mehr Morden im Jahr. Wer werden denn die | |
| Opfer sein? Menschen töten Menschen wie sich selbst. Wenn also mehr | |
| afroamerikanische Straftäter mit hohem Risiko freigelassen werden, | |
| resultieren daraus mehr afroamerikanische Opfer. Wollen Sie das?“ | |
| Sie entscheiden. | |
| Für so eine Entscheidung müsste man eigentlich herausfinden, wie genau sich | |
| die Algorithmen auf wen genau auswirken. Die Gefangenen, deren Schicksal | |
| durchgerechnet wird, haben aber gegen Ende ihrer Haftzeit meist keinen | |
| Anwalt mehr. Sie sitzen in einem toten Winkel der Gesellschaft. Kaum jemand | |
| überprüft das Urteil der Computer. | |
| Berks Gegner würden nun sagen, dass seine Algorithmen mit dafür | |
| verantwortlich sind, dass junge schwarze Männer deutlich häufiger in solche | |
| Situationen geraten. Algorithmen gehen vom Status quo aus, den schreiben | |
| sie mit ihren Berechnungen fort. Schwarze werden intensiver beobachtet und | |
| also auch häufiger festgenommen. Weiße kommen davon. | |
| „Auf jeder Stufe des Justizsystems haben Schwarze schlechtere Chancen“, | |
| sagt Bernard E. Harcourt, der Autor von „Gegen Vorhersagen“. | |
| Berk geht auf solche Punkte nie direkt ein. Er füttere nur den Algorithmus. | |
| Seine Zahlen seien korrekt. | |
| Der Algorithmus kann ja nicht rassistisch sein, oder? Es ist ja nur ein | |
| Computer? | |
| „Natürlich ist er vollkommen rassistisch“, sagt einer von Berks Kritikern, | |
| ein Statistiker. Berks Zahlen stammten schließlich aus einer rassistischen | |
| Wirklichkeit. | |
| Berk sagt: „Der Algorithmus hat ja keine eigene Motivation. Er betrachtet | |
| nur die Fakten. Ein Algorithmus hat eine wesentlich bessere Faktengrundlage | |
| als Menschen mit all ihren Vorurteilen. Wenn es faktisch richtig ist, dass | |
| Männer häufiger Frauen töten als andersherum, dann sollte das doch in so | |
| einen Entscheidungsprozess einbezogen werden.“ | |
| Für Berk hat das alles eine gewisse Unaufhaltsamkeit. Er hat für den | |
| Bundesstaat Maryland einmal versucht herauszufinden, welche | |
| Jugendstraftäter auch nach ihrem 18. Geburtstag straffällig werden würden. | |
| Das habe ziemlich gut funktioniert. Aber die Verantwortlichen hätten Angst | |
| bekommen, es wirklich einzuführen. | |
| Haben Sie keine Angst, dass all die Informationen missbraucht werden | |
| könnten, Mister Berk? | |
| „Technologien können immer für gute oder für böse Zwecke verwendet werden. | |
| Atomenergie wäre ein klassisches Beispiel. Soll man deshalb mit dem | |
| Erfinden aufhören? Daten werden doch jetzt schon missbraucht. Und auch ohne | |
| Daten werden ganz schreckliche Entscheidungen getroffen.“ | |
| Wir würden uns zwangsläufig in diese Richtung bewegen, sagt Berk, „weil die | |
| privaten Unternehmen es schon tun. Google sammelt alles. Das macht auch | |
| Amazon, das tun viele Player im Gesundheitssystem, Versicherungen. Wir | |
| werden sehr persönliche, sehr genaue Daten von jedem haben. Und dann? | |
| Werden wir sie nutzen? Wie werden wir sie nutzen?“ | |
| Sie entscheiden. | |
| 9 Mar 2016 | |
| ## AUTOREN | |
| Johannes Gernert | |
| ## TAGS | |
| Algorithmus | |
| Psychologie | |
| Verbrechen | |
| Individualismus | |
| Schwerpunkt Überwachung | |
| Schwerpunkt Polizeikontrollen in Hamburg | |
| Einbruch | |
| Prognosen | |
| Schwerpunkt Klimawandel | |
| Bot | |
| Algorithmen | |
| Justiz | |
| Schwerpunkt Polizeikontrollen in Hamburg | |
| ## ARTIKEL ZUM THEMA | |
| Überwachungskameras in Gefängnissen: Lückenlose Auswertung | |
| Niedersachsens Landtag erlaubt Künstliche Intelligenz zur Auswertung von | |
| Überwachungsvideos in Gefängnissen. Dabei bleiben Fragen offen. | |
| Polizei will Erlaubnis für Datenanalysen: Präventives Durchleuchten | |
| Die Reform des Hamburger Polizeigesetzes soll automatisierte Datenanalysen | |
| ermöglichen. Die Polizei will damit Straftaten vorhersehen können. | |
| Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“ | |
| Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche | |
| begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet | |
| werden. | |
| Prognosesoftware für Einbrüche: Drah di net um … | |
| … der Kommissar geht um. Durch sogenannte vorausschauende Polizeiarbeit | |
| sollen Verbrechen verhindert werden. | |
| Debatte Klimawandel: Die Weltrettungsmaschine | |
| Können Algorithmen vor dem Untergang retten? Gegen den Turbofeudalismus aus | |
| Silicon Valley brauchen wir einen linken Optimismus der Technik. | |
| Debüt einer Drehbuchmaschine: Regieanweisung aus der Zukunft | |
| „Sunspring“ heißt der erste Film aus der Feder eines Algorithmus. Das | |
| Ergebnis ist ein krudes Spiegelkabinett der Science-Fiction-Welt. | |
| Berechnung des Alltags: Wir sind Algorithmen-Zombies | |
| Algorithmen steuern uns alle fern. Sie bestimmen Entscheidungen, ohne dass | |
| wir es merken, und machen uns so manipulierbar. | |
| Gefährlichkeitsbewertung von Häftlingen: „Algorithmen werden missbraucht“ | |
| Der Statistiker Barry Krisberg wollte das US-Justizsystem fairer machen. Im | |
| Interview erzählt er, wie seine Ideen genau das Gegenteil bewirkten. | |
| Beamte wollen Verbrechen vorhersagen: Wenn die Polizei zuerst da ist | |
| Prognostizierende Polizeiarbeit: Computer sollen im Voraus ermitteln, wo es | |
| Straftaten geben könnte. Stadtteile könnten dabei stigmatisiert werden. |