| # taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne | |
| > In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen | |
| > Dieb. Der aber sieht nicht annähernd wie der Täter aus. | |
| Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz | |
| Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass | |
| automatisierte Gesichtserkennung, neben vielen anderen Problemen, | |
| [1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu | |
| identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist | |
| nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden | |
| kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat | |
| Michigan erfahren]. | |
| Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert | |
| von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material | |
| wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von | |
| Williams Fahrerlaubnis. | |
| Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte | |
| Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) | |
| hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines | |
| menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams | |
| Namen Beschwerde gegen das Detroit Police Department] ein. | |
| Dessen Chef musste nun einräumen, dass die false positives bei der | |
| Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft | |
| behaupteten korrekten Trefferrate in etwa derselben Dimension ist die | |
| absolute Zahl der falschen Identifizierungen viel zu hoch, um einen | |
| praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das | |
| Detroiter Ergebnis sprengt jeden Rahmen. | |
| ## Verbot der Technologie | |
| Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe | |
| Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der | |
| Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen | |
| 68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurtei… | |
| und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten | |
| racial bias der Algorithmen. | |
| Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem | |
| offensichtlichen und systematischen Versagen der Technologie ziehen, ist | |
| noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst | |
| in der vergangenen Woche reihte sich Boston in die länger werdende Reihe | |
| von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der | |
| automatischen Gesichtserkennung warten wollen und sie für die polizeiliche | |
| Praxis verboten haben. | |
| 1 Jul 2020 | |
| ## LINKS | |
| [1] /Amazon-beendet-Kooperation/!5688012 | |
| [2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-fac… | |
| [3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_fina… | |
| [4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%… | |
| ## AUTOREN | |
| Daniél Kretschmar | |
| ## TAGS | |
| Schwerpunkt Rassismus | |
| Polizei | |
| Gesichtserkennung | |
| Datenschutz | |
| Schwerpunkt Rassismus | |
| US-Polizei | |
| Schwerpunkt Rassismus | |
| Schwerpunkt Meta | |
| Black Lives Matter | |
| Innere Sicherheit | |
| ## ARTIKEL ZUM THEMA | |
| Kritik am Sicherheitspaket: Gefährliche Datenspeicherung | |
| Teile des neuen Sicherheitspakets könnten eine weitreichende Überwachung | |
| der Bevölkerung erlauben. Einige Maßnahmen verstoßen gegen das Grundgesetz. | |
| Facebooks Algorithmen werden geprüft: Diskriminierung im System | |
| Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen | |
| rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun. | |
| Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“ | |
| Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex | |
| Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung. | |
| Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“ | |
| Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa | |
| E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist. | |
| Filter bei Facebook und Microsoft: Beim Livetest versagt | |
| Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – | |
| zeigen zwei im „Guardian“ dokumentierte Fälle. | |
| Amazon beendet Kooperation: Polizei vorläufig ohne Amazon | |
| Amazon erlaubt der US-Polizei nicht mehr, eine Software zur | |
| Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh | |
| nicht. | |
| Software zur Gesichtserkennung: Seehofer verzichtet drauf | |
| Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für | |
| Aufregung. Nun streicht Seehofer Pläne für den automatisierten | |
| Bild-Abgleich. |