Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Dokumentarfilm „Coded Bias“: Einäugige Maschinen
> Menschen können rassistisch und sexistisch sein – so wie die Algorithmen,
> die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded
> Bias“.
Bild: Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini
Hamburg taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden
wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht
etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen
kombiniert – mittels Webcam und [1][Gesichtserkennungssoftware]. Dabei
stieß [2][die Computerwissenschaftlerin] auf ein Problem: Keine
ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die
Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft,
identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder
Frauengesichter.
Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht
erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer
Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini
Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die
am Dienstagabend [3][die Hamburger W3 streamt]: Da beobachten
Aktivist*innen der [4][britischen NGO „Big Brother Watch“], wie ein
Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür
eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten
habe, mögen die Beamt*innen nicht erkennen.
Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei
der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts
schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern
machen darf – gegenüber den einschlägigen Tech-Riesen willigen die
Nutzer*innen ja wenigstens noch so was wie ein in die jeweils irgendwo
in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer
das Internet nutzen will, der Gesichtserkennung zustimmen – und der
Verarbeitung durch den Staat.
Und im US-Staat Massachusetts soll eine Software der gestressten Justiz
helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und
das eben wiederum erkennbar entlang den Linien von – Hautfarbe und
Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge
vielerorts auf der Welt bei Job- oder Kreditvergabe oder der
Risikoberechnung in den entsprechenden Abteilungen der Versicherungen.
Aber jedes System, so muss angenommen werden, in dem ausreichend hoher
Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren,
zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo
Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf
Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch
bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum
geht, wer ein gespendetes Organ bekommt?
Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der
Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende
Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für
Vorurteile, als es die Menschen sind, die sie ins Werk setzen.
11 May 2021
## LINKS
[1] /Hamburger-gegen-US-Ueberwachungsfirma/!5744733
[2] https://www.media.mit.edu/people/joyab/overview/
[3] https://w3-hamburg.de/veranstaltung/coded-bias/
[4] https://bigbrotherwatch.org.uk/
## AUTOREN
Alexander Diehl
## TAGS
Datenschutz
Schwerpunkt Überwachung
Bürgerrechte
Schwerpunkt Künstliche Intelligenz
Computer
Schwerpunkt Überwachung
Diskriminierung
Schwerpunkt Rassismus
IG
Schwerpunkt Coronavirus
Cybersicherheit
## ARTIKEL ZUM THEMA
Experte über Firma für Gesichtserkennung: „Einschüchternde Wirkung“
Das US-Unternehmen Clearview speichert in seiner biometrischen
Fotodatenbank auch Europäer:innen. Das will die Datenschutzorganisation
noyb beenden.
Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
Forscherin über frühe Hackerszene: „Stasi ließ Hacker anfangs gewähren“
Ein Gespräch mit der Historikerin Julia Gül Erdogan über die Bedeutung des
Hackens und die frühen Vorläufer der Hackerszene in der BRD und DDR.
Kontaktverfolgung bei Corona: Luca soll es richten
In Hamburg soll die privatwirtschaftliche Luca-App Infektionsketten
ermitteln. Dabei hat der Datenschützer Bedenken.
Cyberkriminalität in den USA: 150.000 Sicherheitskameras gehackt
Ein Hacker-Angriff auf Überwachungskameras hat offenbar Einblicke in
Gefängnisse und Schulen ermöglicht. Auch Tesla soll betroffen sein.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.