| # taz.de -- Dokumentarfilm „Coded Bias“: Einäugige Maschinen | |
| > Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, | |
| > die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded | |
| > Bias“. | |
| Bild: Zweifelt an der Neutralität der Künstlichen Intelligenz: Joy Buolamwini | |
| Hamburg taz | Eigentlich hatte Joy Buolamwini einen Spiegel erfinden | |
| wollen, der Hineinblickende aufmuntert, indem er das gespiegelte Gesicht | |
| etwa mit dem einer Lieblingssängerin oder auch eines mutmachenden Löwen | |
| kombiniert – mittels Webcam und [1][Gesichtserkennungssoftware]. Dabei | |
| stieß [2][die Computerwissenschaftlerin] auf ein Problem: Keine | |
| ausprobierte Software erkannte zuverlässig Buolamwinis Gesicht. Die | |
| Programme, entwickelt in den Laboren von Google, Amazon oder Microsoft, | |
| identifizierten zuverlässig weiße Männer-, aber nicht schwarze oder | |
| Frauengesichter. | |
| Eigentlich ganz gut für nicht weiße, nicht männliche Menschen – nicht | |
| erkannt zu werden etwa von den vielen Kameras im öffentlichen Raum in einer | |
| Stadt wie London. Oder nicht? Kommt darauf an, auch das zeigt Shalini | |
| Kantayyas in den USA, England und China entstandene Doku „Coded Bias“, die | |
| am Dienstagabend [3][die Hamburger W3 streamt]: Da beobachten | |
| Aktivist*innen der [4][britischen NGO „Big Brother Watch“], wie ein | |
| Mann sich weigert, sein Gesicht in eine Polizeikamera zu halten, und dafür | |
| eine Strafe zahlen soll; dass er ein Recht an seinen biometrischen Daten | |
| habe, mögen die Beamt*innen nicht erkennen. | |
| Dass sie damit im Recht sein könnten, ist Teil des Problems. Anders als bei | |
| der eigenen DNA oder dem, was so alles im Pass steht, ist vielerorts | |
| schlicht nicht geregelt, was der Staat mit aufgezeichneten Gesichtern | |
| machen darf – gegenüber den einschlägigen Tech-Riesen willigen die | |
| Nutzer*innen ja wenigstens noch so was wie ein in die jeweils irgendwo | |
| in den AGB versteckte Klausel. Anders in China, lernen wir: Da müsse, wer | |
| das Internet nutzen will, der Gesichtserkennung zustimmen – und der | |
| Verarbeitung durch den Staat. | |
| Und im US-Staat Massachusetts soll eine Software der gestressten Justiz | |
| helfen: Sie ermittelt die Rückfallwahrscheinlichkeit von Angeklagten, und | |
| das eben wiederum erkennbar entlang den Linien von – Hautfarbe und | |
| Herkunft. Und längst durchgesetzt haben sich entsprechende Werkzeuge | |
| vielerorts auf der Welt bei Job- oder Kreditvergabe oder der | |
| Risikoberechnung in den entsprechenden Abteilungen der Versicherungen. | |
| Aber jedes System, so muss angenommen werden, in dem ausreichend hoher | |
| Spardruck aufkommt, dürfte anfällig sein für die so viel schnelleren, | |
| zuverlässigeren und unterstellt neutraleren Maschinenlösungen: Wo | |
| Algorithmen heute schon stapelweise Röntgen- respektive MCT-Bilder auf | |
| Auffälligkeiten hin sichten: Warum sollte Kollege KI dann nicht auch | |
| bessere, mindestens aber schnellere Entscheidungen treffen, wenn es darum | |
| geht, wer ein gespendetes Organ bekommt? | |
| Den Neutralitätsaspekt aber bestreiten, ja: widerlegen etliche der | |
| Aktivist*innen, die in dem gelungenen Film auftretend: Die lernende | |
| Maschine mag nicht böse sein, aber sie ist auch nicht weniger anfällig für | |
| Vorurteile, als es die Menschen sind, die sie ins Werk setzen. | |
| 11 May 2021 | |
| ## LINKS | |
| [1] /Hamburger-gegen-US-Ueberwachungsfirma/!5744733 | |
| [2] https://www.media.mit.edu/people/joyab/overview/ | |
| [3] https://w3-hamburg.de/veranstaltung/coded-bias/ | |
| [4] https://bigbrotherwatch.org.uk/ | |
| ## AUTOREN | |
| Alexander Diehl | |
| ## TAGS | |
| Datenschutz | |
| Schwerpunkt Überwachung | |
| Bürgerrechte | |
| Schwerpunkt Künstliche Intelligenz | |
| Computer | |
| Schwerpunkt Überwachung | |
| Diskriminierung | |
| Schwerpunkt Rassismus | |
| IG | |
| Schwerpunkt Coronavirus | |
| Cybersicherheit | |
| ## ARTIKEL ZUM THEMA | |
| Experte über Firma für Gesichtserkennung: „Einschüchternde Wirkung“ | |
| Das US-Unternehmen Clearview speichert in seiner biometrischen | |
| Fotodatenbank auch Europäer:innen. Das will die Datenschutzorganisation | |
| noyb beenden. | |
| Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
| Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
| ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung. | |
| Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen | |
| Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von | |
| männlicher Norm. Sie reproduzieren real existierende Zuschreibungen. | |
| Forscherin über frühe Hackerszene: „Stasi ließ Hacker anfangs gewähren“ | |
| Ein Gespräch mit der Historikerin Julia Gül Erdogan über die Bedeutung des | |
| Hackens und die frühen Vorläufer der Hackerszene in der BRD und DDR. | |
| Kontaktverfolgung bei Corona: Luca soll es richten | |
| In Hamburg soll die privatwirtschaftliche Luca-App Infektionsketten | |
| ermitteln. Dabei hat der Datenschützer Bedenken. | |
| Cyberkriminalität in den USA: 150.000 Sicherheitskameras gehackt | |
| Ein Hacker-Angriff auf Überwachungskameras hat offenbar Einblicke in | |
| Gefängnisse und Schulen ermöglicht. Auch Tesla soll betroffen sein. |