Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Rassismus in Algorithmen: Gesichtserkennung für die Tonne
> In Detroit findet die Polizei per Gesichtserkennung einen mutmaßlichen
> Dieb. Der aber sieht nicht annähernd wie der Täter aus.
Bild: Protest nach dem Tod von George Floyd: Detroiter Polizei im Einsatz
Algorithmen sind nicht vorurteilsfrei. So ist schon lange bekannt, dass
automatisierte Gesichtserkennung, neben vielen anderen Problemen,
[1][erhebliche Schwierigkeiten hat, nichtweiße Physiognomien zu
identifizieren]. Das „Normal“, auf dem die Software trainiert wird, ist
nämlich weiß. Dass das ein ganz handfestes individuelles Problem werden
kann, [2][musste Anfang des Jahres Robert Williams aus dem US-Bundesstaat
Michigan erfahren].
Ein Schwarzer Mann hatte in einem Juweliergeschäft in Detroit Uhren im Wert
von 3.800 US-Dollar gestohlen und war dabei gefilmt worden. Das Material
wurde in der Polizeidatenbank abgeglichen und fand als Treffer das Bild von
Williams Fahrerlaubnis.
Schon in der ersten Befragung wurde klar, dass Williams nicht der gefilmte
Übeltäter war. Nach Ansicht der NGO American Civil Liberties Union (ACLU)
hätte es für diese Erkenntnis keiner Festnahme, sondern lediglich eines
menschlichen Blicks auf die Bilder bedurft, und reichte [3][in Williams
Namen Beschwerde gegen das Detroit Police Department] ein.
Dessen Chef musste nun einräumen, dass die false positives bei der
Gesichtserkennung bei sagenhaften 96 Prozent liegen. Schon bei der oft
behaupteten korrekten Trefferrate in etwa derselben Dimension ist die
absolute Zahl der falschen Identifizierungen viel zu hoch, um einen
praktischen Nutzen aus der Gesichtserkennung ziehen zu können, aber das
Detroiter Ergebnis sprengt jeden Rahmen.
## Verbot der Technologie
Über die Gründe wird verschiedentlich spekuliert. Einer könnte die hohe
Zahl an Schwarzen Verdächtigen sein. Im [4][aktuellen Wochenreport der
Detroiter Polizei] werden von 70 per Gesichtserkennung gesuchter Personen
68 als „Black“ geführt. Es scheint, als träfen sich rassistische Vorurtei…
und eine diskriminierende Polizeipraxis ganz beiläufig mit dem bekannten
racial bias der Algorithmen.
Welche Schlüsse die Stadt Detroit und ihr Police Department aus dem
offensichtlichen und systematischen Versagen der Technologie ziehen, ist
noch offen. Andere Städte in den USA haben sich bereits entschieden. Erst
in der vergangenen Woche reihte sich Boston in die länger werdende Reihe
von Kommunen ein, die nicht auf ein Bundesgesetz zur Regulierung der
automatischen Gesichtserkennung warten wollen und sie für die polizeiliche
Praxis verboten haben.
1 Jul 2020
## LINKS
[1] /Amazon-beendet-Kooperation/!5688012
[2] https://arstechnica.com/tech-policy/2020/06/detroit-police-chief-admits-fac…
[3] https://cdn.arstechnica.net/wp-content/uploads/2020/06/dpd_complaint_v_fina…
[4] https://detroitmi.gov/sites/detroitmi.localhost/files/2020-06/DPD%20Report%…
## AUTOREN
Daniél Kretschmar
## TAGS
Schwerpunkt Rassismus
Polizei
Gesichtserkennung
Datenschutz
Schwerpunkt Rassismus
US-Polizei
Schwerpunkt Rassismus
Schwerpunkt Meta
Black Lives Matter
Innere Sicherheit
## ARTIKEL ZUM THEMA
Kritik am Sicherheitspaket: Gefährliche Datenspeicherung
Teile des neuen Sicherheitspakets könnten eine weitreichende Überwachung
der Bevölkerung erlauben. Einige Maßnahmen verstoßen gegen das Grundgesetz.
Facebooks Algorithmen werden geprüft: Diskriminierung im System
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen
rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
Soziologe über Polizei in den USA: „Polizisten sind Gewaltarbeiter“
Die Polizei muss aus dem Alltag der Menschen rausgehalten werden, sagt Alex
Vitale. Der Soziologe fordert zudem eine reduzierte Bewaffnung.
Soziologin über Polizei und Rassismus: „Die Polizei ist Schutz und Gefahr“
Für viele Menschen bedeutet weniger Polizei mehr Sicherheit, sagt Vanessa
E. Thompson. Sie erklärt, warum Rassismusforschung auch frustrierend ist.
Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten –
zeigen zwei im „Guardian“ dokumentierte Fälle.
Amazon beendet Kooperation: Polizei vorläufig ohne Amazon
Amazon erlaubt der US-Polizei nicht mehr, eine Software zur
Gesichtserkennung zu verwenden. Lukrativ aber war der Geschäftszweig eh
nicht.
Software zur Gesichtserkennung: Seehofer verzichtet drauf
Erst sorgen Berichte über das Gesichtserkennungssystem Clearview für
Aufregung. Nun streicht Seehofer Pläne für den automatisierten
Bild-Abgleich.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.