# taz.de -- Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
> Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
> reicht das am Ende, um die Diskriminierung zu stoppen? | |
Bild: Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwickler… | |
Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen, | |
dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter | |
mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert. | |
Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von | |
Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der | |
Hackerkonferenz Defcon in Las Vegas veranstaltet hatte. | |
Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security | |
and Privacy Engineering Lab der École polytechnique fédérale de Lausanne | |
(EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar. | |
Dass Twitters [1][Algorithmen verzerrt und strukturell rassistisch sind], | |
ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter | |
öffentlich in die Kritik geraten, nachdem mehrere Nutzer:innen | |
berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos | |
schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach | |
einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Problem | |
damit nicht. Dass Twitter seiner diskriminierenden KI mit einem | |
öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen | |
Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist | |
der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte | |
Bahnen zu lenken. | |
Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons – | |
aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa | |
Apple über eine Million Dollar „Kopfgeld“ an Sicherheitsforscher:innen, | |
die Bugs in seinem Betriebssystem finden. | |
## Immer noch unterrepräsentiert | |
Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese | |
entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen | |
bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen | |
auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar | |
Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie. | |
Twitter und andere Techkonzerne haben zwar eigene Ethikabteilungen, deren | |
Repräsentant:innen sich gerne mit hehren Worten an die Öffentlichkeit | |
wenden, [2][die jedoch nicht mehr als ein Feigenblatt sind] – zumal das | |
Management häufig selbst nicht den eigenen ethischen Standards genügt. So | |
wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen | |
Monaten gefeuert, nachdem sie in einer internen Mail offen die | |
Unternehmenskultur und den Umgang mit Minderheiten kritisierte. | |
Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre | |
Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des | |
Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der | |
Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und | |
Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in | |
Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die | |
Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig | |
so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet. | |
## Ausbeutung der Jungen | |
Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch | |
aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die | |
iranischstämmige Ingenieurin Roya Pakzad, aufzeigen, dass bei | |
englischsprachigen und arabischen Memes meist der englische Text | |
hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen, | |
vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass | |
Englisch kulturell überlegen sei. | |
Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur | |
ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein | |
gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren | |
Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker | |
monieren, dass Unternehmen dadurch junge Programmierer:innen ausbeuten | |
würden. | |
Statt Hacker:innen mit einem Fingerlohn abzuspeisen, solle man ihnen | |
lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es. | |
Wie Google und Facebook beschäftigt auch Twitter | |
Vertragsarbeiter:innen auf den Philippinen, einen digitalen | |
Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen | |
muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr | |
Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht. | |
12 Aug 2021 | |
## LINKS | |
[1] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475 | |
[2] /Hate-Speech-im-Netz/!5781835 | |
## AUTOREN | |
Adrian Lobe | |
## TAGS | |
Twitter / X | |
künstliche Intelligenz | |
Diversität | |
Schwerpunkt Rassismus | |
Roboter | |
künstliche Intelligenz | |
Schwerpunkt Facebook | |
Diskriminierung | |
## ARTIKEL ZUM THEMA | |
Anonymität gegen Rassismus bei Airbnb: Namenlos in den Urlaub | |
Airbnb verzichtet im US-Bundesstaat Oregon künftig auf den vollen Namen und | |
das Gesichtsfoto von Gäst:innen. Das soll gegen Rassismus schützen. | |
Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin | |
Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches | |
Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten. | |
Algorithmen und Diskriminierung: Maschinelle Sittenwächter | |
Plattformen wie Instagram und Tiktok löschen Fotos von dicken Menschen, die | |
„zu viel“ nackte Haut zeigen. Das befeuert die Diskriminierung. | |
Hate Speech im Netz: Wenn Maschinen moderieren | |
Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden | |
ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen. | |
Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung. |