| # taz.de -- Verbrechens-Vorhersage mit Software: „Die Polizei ist skeptisch“ | |
| > Predictive Policing versucht zu prognostizieren, wo und wann Einbrüche | |
| > begangen werden. Die Analyse kann auch auf andere Delikte ausgeweitet | |
| > werden. | |
| Bild: Bald durchschaubar? Einbrecher gehen nach Mustern vor. | |
| taz: Herr Egbert, kann man mit Predictive Policing Verbrechen lösen, bevor | |
| sie stattgefunden haben? | |
| Simon Egbert: Um von einer Lösung sprechen zu können, bräuchte man eine | |
| Tat, einen Täter und eine erfolgreiche Strafverfolgung. Bei Predictive | |
| Policing geht es aber primär um Prävention, also um eine Intervention, | |
| bevor Straftaten begangen wurden. In Deutschland bezieht es sich aktuell | |
| vor allem auf Wohnungseinbruchdiebstahl: Man prognostiziert, wo und wann | |
| höchstwahrscheinlich Einbrüche begangen werden. Es bezieht sich also nicht | |
| auf Personen, sondern auf Räume. | |
| Und wie weiß man, wann und wo Einbrüche stattfinden werden? | |
| Die Kernidee von Predictive Policing ist, Kriminaldaten aus der | |
| Vergangenheit zu benutzen, um bestimmte Muster im Vorgehen zu erkennen. Sie | |
| werden errechnet und in die Zukunft fortgeschrieben. Ein wichtiges Muster | |
| ist dabei die „Near repeat“-Hypothese, nach welcher ein professioneller | |
| Serieneinbrecher rational vorgeht. Er neigt dazu, im Umkreis des ersten | |
| Tatorts, in der unmittelbaren Zeit danach, noch mal zuzuschlagen. Viele | |
| Predictive-Policing-Software basieren darauf. Ihre Rolle ist dann, den | |
| Täter und das Initialdelikt zu erkennen. Dann generiert die Software eine | |
| raumgebundene Risikoprognose, zum Beispiel 400 Meter im Umkreis des Tatorts | |
| für bis zu sieben Tage nach dem ersten Einbruch. | |
| Und was macht man dann? | |
| Es gibt dann zwei Strategien. Man kann deutlich erkennbare Polizeikräfte in | |
| das Risikogebiet mit der Hoffnung schicken, dass sich mögliche Täter | |
| abgeschreckt fühlen, so dass die Einbrüche nicht stattfinden. Es gibt aber | |
| auch eine repressive Strategie, die auf Strafverfolgung beruht. Zivilkräfte | |
| der Polizei fahren dann ins Risikogebiet, um Täter in flagranti zu | |
| erwischen. Das Ziel ist, sie strafrechtlich zu verfolgen und ihnen | |
| eventuell mehrere Taten zuzuordnen. Diese repressive Strategie wird aber in | |
| Deutschland kaum verwendet, weil sie viel ressourcenaufwendiger und | |
| dementsprechend auch deutlich teurer ist. | |
| Wird Predictive Policing in Hamburg angewendet? | |
| Nein. Die Hamburger Polizei beschäftigt sich zwar wissenschaftlich intensiv | |
| mit dem Thema, sie wendet aber keine entsprechende Software an. Das ist | |
| bemerkenswert, weil es in der Hamburger Polizei Organisationen wie die | |
| Sonderkommission „Castle“ gibt, die sich genau mit dieser Klientel von | |
| Tätern und Täterinnen beschäftigt. Dadurch hätte die Polizei eigentlich | |
| sehr gute Rahmenbedingungen, eine solche Predictive-Policing-Software und | |
| den entsprechenden Ansatz zu testen. | |
| Warum? | |
| Innerhalb der Polizei ist man skeptisch. Die Software kostet ja auch Geld | |
| und bindet Personal. | |
| Ist diese Skepsis berechtigt? | |
| Interessanterweise kann das keiner sagen. Die Wirksamkeit von Predictive | |
| Policing ist fast unmöglich nachzuweisen. Wenn die Polizei in ein | |
| prognostiziertes Risikogebiet geschickt wird, und dann keine Tat | |
| stattfindet, kann hinterher nicht eruiert werden, warum keine Einbrüche | |
| begangen wurden. Liegt es daran, dass die Prognose falsch war oder dass | |
| Täter tatsächlich abgeschreckt wurden? Die Kausalität ist dann unklar. | |
| Und bemerkt man ein Sinken der Fallzahlen, wo solche Software angewendet | |
| wird? | |
| In den meisten Fällen ist die Implementierung einer entsprechenden Software | |
| immer verbunden mit anderen neuen Maßnahmen. Wenn die Deliktzahlen also | |
| sinken, kann man nicht sagen, woran das liegt. Man bräuchte eigentlich zwei | |
| identische Stadtteile, die dasselbe Grundrisiko bezüglich | |
| Wohnungseinbrüchen haben, um sie mit und ohne die Software vergleichen zu | |
| können. So was gibt es aber nicht. | |
| Kann man das nicht anders testen? | |
| Man kann die Prognose an sich testen. Anhand der Kriminalitätsdaten aus | |
| vergangenen Jahren kann man beispielsweise Prognosen für das Vorjahr | |
| generieren und dann die errechneten Prognosen mit dem tatsächlichen | |
| Fallaufkommen vergleichen. Und da kommen durchaus gute Zahlen raus, über 80 | |
| Prozent Übereinstimmung. Das bezieht sich aber nur auf die Prognosequalität | |
| und Predictive Policing ist eine ganzheitliche Strategie, deren Bestandteil | |
| eben auch die Umsetzung der Prognosen in den Risikoräumen ist. Es bringt | |
| nichts zu wissen, wann und wo eingebrochen wird, wenn dann dort nichts | |
| gemacht wird. | |
| Ist das trotzdem die Polizeiarbeit der Zukunft? | |
| Ich glaube, dass grundsätzlich eine datengestützte Arbeit die Polizeiarbeit | |
| der Zukunft ist. Die Arbeit mit Daten wird immer günstiger und die | |
| Server-Kapazitäten größer. Und ich denke auch, dass Polizeiarbeit in | |
| Zukunft auch stets Prognoseelemente beinhalten wird. Alle Bundesländer | |
| werden bestimmt in fünf bis zehn Jahren prädiktive Software benutzen. Ein | |
| Grund dafür ist auch, dass sie auf andere Delikte wie Autoeinbrüche | |
| erweitert wird, zumindest testweise. | |
| Könnte man sich auch Predictive Policing vorstellen, das auf Personen | |
| bezogen ist? | |
| Es ist ein bisschen die Frage, was man unter Predictive Policing versteht. | |
| Wenn man vom Begriff selber ausgeht und ihn schlicht als prognosebasierte | |
| Polizeiarbeit definiert, dann wird es höchstwahrscheinlich bald eine | |
| vorhersagende Polizeiarbeit geben, die sich auf Personen bezieht. | |
| Gibt es Beispiele dafür? | |
| Anfangs des Jahres hat das Bundeskriminalamt sein Prognosesystem RADAR-iTE | |
| vorgestellt, das die individuellen Risikopotenziale islamistischer | |
| „Gefährder“ beziehungsweise „relevanter Personen“ auf Basis ihres | |
| beobachtbaren Verhaltens konkretisieren soll. Inzwischen wird es in | |
| mehreren Bundesländern wie Hamburg benutzt. Das hat mit automatisierter | |
| Datenanalyse wie in aktuellen Predictive-Policing-Anwendungen wenig zu tun | |
| und es wird auch explizit nicht als Predictive Policing vorgestellt, aber | |
| die Grundidee ist meiner Einschätzung nach dieselbe, nämlich dass die | |
| Polizei in der Gegenwart wissen will, was in der Zukunft passiert. Im Kern | |
| findet sich diese Grundidee ja auch schon im Film „Minority Report“. | |
| Das ist aber Science-Fiction. | |
| Ja, natürlich. Aber ich halte die grundsätzliche Denkrichtung für | |
| realistisch. Die Polizei in Chicago hat zum Beispiel das Projekt „Strategic | |
| Subject List“ entwickelt, in deren Rahmen Personen etwa anhand ihrer | |
| Vorstrafen, Gangmitgliedschaften und gewaltsamer Todesfälle im | |
| Bekanntenkreis ein Risikoscore bezüglich der Wahrscheinlichkeit zugeordnet | |
| wird, dass sie Opfer oder Täter eines Tötungsdeliktes werden. | |
| Könnte man das erweitern? | |
| Theoretisch ist es ein riesiger Markt und der politische Druck ist da. Es | |
| ist sicherheitspolitisch sehr interessant, gerade wenn es um Terrorismus | |
| geht. Deshalb kann ich mir gut vorstellen, dass ähnliche Verfahren häufiger | |
| werden und zum Beispiel, dass Serieneinbruchstäter irgendwann einmal Objekt | |
| von derartigen Formen des Predictive Profiling werden. Aber ich weiß von | |
| keiner konkreten Planung und halte sie in absehbarer Zeit auch für | |
| unrealistisch. | |
| Ist das nicht gefährlich? | |
| Es gibt schon Risiken, gerade wenn es um Datenschutz- oder | |
| Persönlichkeitsrechte geht. Ein anderes Problem ist der Algorithmus, der | |
| verwendet wird. Er beruht auf der Datenbasis der Polizei, die aber nicht | |
| neutral ist, sondern davon abhängt, wen die Polizei aufgegriffen hat und wo | |
| sie kontrolliert. Manche Algorithmen können sich durch die Daten selber | |
| verändern. Aber wenn die Polizei mit ihren, in diesem Sinne verzerrten | |
| Daten arbeitet, wird diese Verzerrung im Algorithmus inkorporiert und | |
| womöglich verstärkt. | |
| Die Software könnte ein sehr mächtiges Instrument sein. | |
| Besonders wenn zum Beispiel allein die Prognose legitimieren sollte, dass | |
| in den Risikoräumen anlasslos kontrolliert werden kann – so ähnlich wie in | |
| den früheren Gefahrengebieten beim G20-Gipfel in Hamburg. | |
| Ist dann Predictive Policing überhaupt wünschenswert? | |
| Die Idee ist an sich nicht schlecht und es ist natürlich erst einmal | |
| positiv, wenn Fallzahlen sinken. In der jetzigen, vergleichsweise | |
| rudimentären Form halte ich die Umsetzung für absolut vertretbar. | |
| 2 Jan 2018 | |
| ## AUTOREN | |
| Adèle Cailleteau | |
| ## TAGS | |
| Einbruch | |
| Software | |
| Ermittlungen | |
| Gefährder | |
| Gefahrengebiet | |
| Schwerpunkt Polizeikontrollen in Hamburg | |
| USA | |
| Minority Report | |
| Prognosen | |
| Gefährder | |
| Schwerpunkt USA unter Trump | |
| Digitalisierung | |
| Algorithmus | |
| ## ARTIKEL ZUM THEMA | |
| Polizei will Erlaubnis für Datenanalysen: Präventives Durchleuchten | |
| Die Reform des Hamburger Polizeigesetzes soll automatisierte Datenanalysen | |
| ermöglichen. Die Polizei will damit Straftaten vorhersehen können. | |
| Algorithmus bei der New Yorker Polizei: Software gleicht Verbrechen ab | |
| Die New Yorker Polizei baut auf einen Algorithmus für die Verbrechersuche. | |
| Mit „Patternizr“ können die Ermittler Verbrechen auf Muster abgleichen. | |
| Kolumne Minority Report: Eine schrecklich weiße Familie | |
| Die Neuregelung von Union und SPD zum Familiennachzug von Geflüchteten ist | |
| nationalistisch. Von wegen „Wir machen Familien stark“! | |
| Prognosesoftware für Einbrüche: Drah di net um … | |
| … der Kommissar geht um. Durch sogenannte vorausschauende Polizeiarbeit | |
| sollen Verbrechen verhindert werden. | |
| Gefährder in Deutschland: Wo beginnt gefährlich? | |
| Ahmed A. hat noch keine Straftat begangen und wird doch schon überwacht. | |
| Denn in Deutschland gilt er als Gefährder. | |
| Big Data bei den US-Wahlen: Das Silicon Valley weiß, wen du wählst | |
| Clinton und Trump durchleuchten ihre WählerInnen – mit Algorithmen. Das | |
| zerstöre die Demokratie, sagt die Mathematikerin Cathy O’Neil. | |
| Philosoph über Digitalisierung: „Algorithmen sind gefährlich“ | |
| Der Philosoph Luciano Floridi warnt: Wir passen unser Leben zu sehr der | |
| digitalen Welt an – und verlieren die Freiheit, die Gesellschaft zu | |
| verändern. | |
| Algorithmen und Kriminalität: Er wird, er wird nicht, er wird … | |
| Ein Soziologe sagt, sein Computerprogramm könne vor der Geburt eines | |
| Menschen herausfinden, ob der straffällig wird. Aber will man das? |