# taz.de -- Dokumentarfilm „Coded Bias“: Einäugige Maschinen | |
> Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, | |
> die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded | |
> Bias“. | |
Bild: Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini | |
HAMBURG taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden | |
wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht | |
etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen | |
kombiniert – mittels Webcam und [1][Gesichtserkennungssoftware]. Dabei | |
stieß [2][die Computerwissenschaftlerin] auf ein Problem: Keine | |
ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die | |
Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft, | |
identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder | |
Frauengesichter. | |
Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht | |
erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer | |
Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini | |
Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die | |
am Dienstagabend [3][die Hamburger W3 streamt]: Da beobachten | |
Aktivist*innen der [4][britischen NGO „Big Brother Watch“], wie ein | |
Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür | |
eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten | |
habe, mögen die Beamt*innen nicht erkennen. | |
Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei | |
der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts | |
schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern | |
machen darf – gegenüber den einschlägigen Tech-Riesen willigen die | |
Nutzer*innen ja wenigstens noch so was wie ein in die jeweils irgendwo | |
in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer | |
das Internet nutzen will, der Gesichtserkennung zustimmen – und der | |
Verarbeitung durch den Staat. | |
Und im US-Staat Massachusetts soll eine Software der gestressten Justiz | |
helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und | |
das eben wiederum erkennbar entlang den Linien von – Hautfarbe und | |
Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge | |
vielerorts auf der Welt bei Job- oder Kreditvergabe oder der | |
Risikoberechnung in den entsprechenden Abteilungen der Versicherungen. | |
Aber jedes System, so muss angenommen werden, in dem ausreichend hoher | |
Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren, | |
zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo | |
Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf | |
Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch | |
bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum | |
geht, wer ein gespendetes Organ bekommt? | |
Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der | |
Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende | |
Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für | |
Vorurteile, als es die Menschen sind, die sie ins Werk setzen. | |
11 May 2021 | |
## LINKS | |
[1] /Hamburger-gegen-US-Ueberwachungsfirma/!5744733 | |
[2] https://www.media.mit.edu/people/joyab/overview/ | |
[3] https://w3-hamburg.de/veranstaltung/coded-bias/ | |
[4] https://bigbrotherwatch.org.uk/ | |
## AUTOREN | |
Alexander Diehl | |
## TAGS | |
Datenschutz | |
Schwerpunkt Überwachung | |
Bürgerrechte | |
Computer | |
künstliche Intelligenz | |
Schwerpunkt Überwachung | |
Diskriminierung | |
Schwerpunkt Rassismus | |
[tazze]IG | |
Schwerpunkt Coronavirus | |
Cybersicherheit | |
## ARTIKEL ZUM THEMA | |
Experte über Firma für Gesichtserkennung: „Einschüchternde Wirkung“ | |
Das US-Unternehmen Clearview speichert in seiner biometrischen | |
Fotodatenbank auch Europäer:innen. Das will die Datenschutzorganisation | |
noyb beenden. | |
Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung. | |
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen | |
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von | |
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen. | |
Forscherin über frühe Hackerszene: „Stasi ließ Hacker anfangs gewähren“ | |
Ein Gespräch mit der Historikerin Julia Gül Erdogan über die Bedeutung des | |
Hackens und die frühen Vorläufer der Hackerszene in der BRD und DDR. | |
Kontaktverfolgung bei Corona: Luca soll es richten | |
In Hamburg soll die privatwirtschaftliche Luca-App Infektionsketten | |
ermitteln. Dabei hat der Datenschützer Bedenken. | |
Cyberkriminalität in den USA: 150.000 Sicherheitskameras gehackt | |
Ein Hacker-Angriff auf Überwachungskameras hat offenbar Einblicke in | |
Gefängnisse und Schulen ermöglicht. Auch Tesla soll betroffen sein. |