# taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne | |
> In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen | |
> Dieb. Der aber sieht nicht annähernd wie der Täter aus. | |
Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz | |
Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass | |
automatisierte Gesichtserkennung, neben vielen anderen Problemen, | |
[1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu | |
identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist | |
nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden | |
kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat | |
Michigan erfahren]. | |
Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert | |
von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material | |
wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von | |
Williams Fahrerlaubnis. | |
Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte | |
Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU) | |
hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines | |
menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams | |
Namen Beschwerde gegen das Detroit Police Department] ein. | |
Dessen Chef musste nun einräumen, dass die false positives bei der | |
Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft | |
behaupteten korrekten Trefferrate in etwa derselben Dimension ist die | |
absolute Zahl der falschen Identifizierungen viel zu hoch, um einen | |
praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das | |
Detroiter Ergebnis sprengt jeden Rahmen. | |
## Verbot der Technologie | |
Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe | |
Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der | |
Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen | |
68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurtei… | |
und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten | |
racial bias der Algorithmen. | |
Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem | |
offensichtlichen und systematischen Versagen der Technologie ziehen, ist | |
noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst | |
in der vergangenen Woche reihte sich Boston in die länger werdende Reihe | |
von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der | |
automatischen Gesichtserkennung warten wollen und sie für die polizeiliche | |
Praxis verboten haben. | |
1 Jul 2020 | |
## LINKS | |
[1] /Amazon-beendet-Kooperation/!5688012 | |
[2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-fac… | |
[3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_fina… | |
[4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%… | |
## AUTOREN | |
Daniél Kretschmar | |
## TAGS | |
Schwerpunkt Rassismus | |
Polizei | |
Gesichtserkennung | |
Schwerpunkt Rassismus | |
US-Polizei | |
Schwerpunkt Rassismus | |
Schwerpunkt Facebook | |
Black Lives Matter | |
Innere Sicherheit | |
## ARTIKEL ZUM THEMA | |
Facebooks Algorithmen werden geprüft: Diskriminierung im System | |
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen | |
rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun. | |
Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“ | |
Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex | |
Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung. | |
Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“ | |
Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa | |
E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist. | |
Filter bei Facebook und Microsoft: Beim Livetest versagt | |
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – | |
zeigen zwei im „Guardian“ dokumentierte Fälle. | |
Amazon beendet Kooperation: Polizei vorläufig ohne Amazon | |
Amazon erlaubt der US-Polizei nicht mehr, eine Software zur | |
Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh | |
nicht. | |
Software zur Gesichtserkennung: Seehofer verzichtet drauf | |
Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für | |
Aufregung. Nun streicht Seehofer Pläne für den automatisierten | |
Bild-Abgleich. |