Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Twitter-KI diverser machen: Suche nach dem Superprogrammierer
> Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
> reicht das am Ende, um die Diskriminierung zu stoppen?
Bild: Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwickler…
Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen,
dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter
mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert.
Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von
Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der
Hackerkonferenz Defcon in Las Vegas veranstaltet hatte.
Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security
and Privacy Engineering Lab der École polytechnique fédérale de Lausanne
(EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar.
Dass Twitters [1][Algorithmen verzerrt und strukturell rassistisch sind],
ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter
öffentlich in die Kritik geraten, nachdem mehrere Nutzer:innen
berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos
schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach
einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Problem
damit nicht. Dass Twitter seiner diskriminierenden KI mit einem
öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen
Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist
der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte
Bahnen zu lenken.
Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons –
aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa
Apple über eine Million Dollar „Kopfgeld“ an Sicherheitsforscher:innen,
die Bugs in seinem Betriebssystem finden.
## Immer noch unterrepräsentiert
Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese
entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen
bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen
auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar
Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie.
Twitter und andere Techkonzerne haben zwar eigene Ethikabteilungen, deren
Repräsentant:innen sich gerne mit hehren Worten an die Öffentlichkeit
wenden, [2][die jedoch nicht mehr als ein Feigenblatt sind] – zumal das
Management häufig selbst nicht den eigenen ethischen Standards genügt. So
wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen
Monaten gefeuert, nachdem sie in einer internen Mail offen die
Unternehmenskultur und den Umgang mit Minderheiten kritisierte.
Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre
Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des
Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der
Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und
Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in
Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die
Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig
so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet.
## Ausbeutung der Jungen
Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch
aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die
iranischstämmige Ingenieurin Roya Pakzad, aufzeigen, dass bei
englischsprachigen und arabischen Memes meist der englische Text
hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen,
vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass
Englisch kulturell überlegen sei.
Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur
ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein
gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren
Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker
monieren, dass Unternehmen dadurch junge Programmierer:innen ausbeuten
würden.
Statt Hacker:innen mit einem Fingerlohn abzuspeisen, solle man ihnen
lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es.
Wie Google und Facebook beschäftigt auch Twitter
Vertragsarbeiter:innen auf den Philippinen, einen digitalen
Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen
muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr
Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht.
12 Aug 2021
## LINKS
[1] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475
[2] /Hate-Speech-im-Netz/!5781835
## AUTOREN
Adrian Lobe
## TAGS
Diversität
Twitter / X
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
Gender
TikTok
Soziale Medien
Diskriminierung
## ARTIKEL ZUM THEMA
Anonymität gegen Rassismus bei Airbnb: Namenlos in den Urlaub
Airbnb verzichtet im US-Bundesstaat Oregon künftig auf den vollen Namen und
das Gesichtsfoto von Gäst:innen. Das soll gegen Rassismus schützen.
Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin
Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches
Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten.
Algorithmen und Diskriminierung: Maschinelle Sittenwächter
Plattformen wie Instagram und Tiktok löschen Fotos von dicken Menschen, die
„zu viel“ nackte Haut zeigen. Das befeuert die Diskriminierung.
Hate Speech im Netz: Wenn Maschinen moderieren
Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden
ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen.
Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.