| # taz.de -- Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
| > Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
| > reicht das am Ende, um die Diskriminierung zu stoppen? | |
| Bild: Techkonzerne haben schon vor einigen Jahren angekündigt, ihre Entwickler… | |
| Vor wenigen Tagen hat der Wissenschaftler Bogdan Kulynych nachgewiesen, | |
| dass Twitters Bildbeschneidungsalgorithmus jüngere und dünnere Gesichter | |
| mit heller Haut bevorzugt und dabei weibliche Gesichtszüge stereotypisiert. | |
| Die Ergebnisse seiner Analyse reichte er beim Bug-Bounty-Programm von | |
| Twitter ein, einem Wettbewerb, den der Konzern im Rahmen der | |
| Hackerkonferenz Defcon in Las Vegas veranstaltet hatte. | |
| Die Arbeit hat Twitter überzeugt: Kulynych, der als Doktorand am Security | |
| and Privacy Engineering Lab der École polytechnique fédérale de Lausanne | |
| (EPFL) forscht, erhielt ein Preisgeld in Höhe von 3.500 Dollar. | |
| Dass Twitters [1][Algorithmen verzerrt und strukturell rassistisch sind], | |
| ist freilich keine neue Erkenntnis. Im vergangenen Jahr war Twitter | |
| öffentlich in die Kritik geraten, nachdem mehrere Nutzer:innen | |
| berichteten, dass der Algorithmus beim automatischen Zuschnitt von Fotos | |
| schwarze Menschen ausschneidet. Im Mai dieses Jahres hat der Konzern nach | |
| einer internen Prüfung das Feature abgeschaltet. Gelöst ist das Problem | |
| damit nicht. Dass Twitter seiner diskriminierenden KI mit einem | |
| öffentlichen Wettbewerb zu Leibe rücken will, zeugt aber von einem hohen | |
| Maß an Transparenz und einer offenen Fehlerkultur im Unternehmen. Es ist | |
| der Versuch, die viel beschworene Schwarmintelligenz in kontrollierte | |
| Bahnen zu lenken. | |
| Normalerweise werden solche Bug-Bounty-Programme – ähnlich wie Hackathons – | |
| aufgelegt, um die Robustheit der Firmware zu überprüfen. So zahlt etwa | |
| Apple über eine Million Dollar „Kopfgeld“ an Sicherheitsforscher:innen, | |
| die Bugs in seinem Betriebssystem finden. | |
| ## Immer noch unterrepräsentiert | |
| Eine Sicherheitslücke tut keinem weh: Der ethische Hacker, der diese | |
| entdeckt, darf sich über ein nettes Preisgeld freuen, das Unternehmen | |
| bekommt einen Penetrationstest zum Spottpreis. Wenn aber die Algorithmen | |
| auf den Prüfstand gehoben werden, geht es nicht bloß um ein paar | |
| Stellschrauben im Maschinenraum, sondern um die Firmenphilosophie. | |
| Twitter und andere Techkonzerne haben zwar eigene Ethikabteilungen, deren | |
| Repräsentant:innen sich gerne mit hehren Worten an die Öffentlichkeit | |
| wenden, [2][die jedoch nicht mehr als ein Feigenblatt sind] – zumal das | |
| Management häufig selbst nicht den eigenen ethischen Standards genügt. So | |
| wurde die äthiopischstämmige Google-Ethikerin Timnit Gebru vor einigen | |
| Monaten gefeuert, nachdem sie in einer internen Mail offen die | |
| Unternehmenskultur und den Umgang mit Minderheiten kritisierte. | |
| Zwar haben Techkonzerne schon vor einigen Jahren angekündigt, ihre | |
| Entwicklerteams diverser zu machen. Doch in den Softwareschmieden des | |
| Silicon Valley sitzen noch immer mehrheitlich weiße junge Männer aus der | |
| Mittel- und Oberschicht, die – häufig unbewusst – ihre Werte und | |
| Weltanschauung im Programmcode formulieren. Frauen und Schwarze sind in | |
| Führungspositionen deutlich unterrepräsentiert. Wenn Twitter nun die | |
| Prüfung seiner diskriminierenden Werkzeuge crowdsourct, ist es ein wenig | |
| so, als hätte jemand die Fenster der muffigen Nerdbüros geöffnet. | |
| ## Ausbeutung der Jungen | |
| Die Ergebnisse, die Twitters Bug-Bounty-Programm zutage förderte, sind auch | |
| aus kultureller Perspektive interessant. So konnte die Drittplatzierte, die | |
| iranischstämmige Ingenieurin Roya Pakzad, aufzeigen, dass bei | |
| englischsprachigen und arabischen Memes meist der englische Text | |
| hervorgehoben wird. Vielleicht, weil diese Sprache mehr Menschen sprechen, | |
| vielleicht aber auch, weil den Modellen die Annahme zugrunde liegt, dass | |
| Englisch kulturell überlegen sei. | |
| Bleibt die Frage, wie Twitter mit den Befunden umgeht. Ist das Ganze nur | |
| ein technologisches Greenwashing, eine PR-Aktion, mit der man sich ein | |
| gutes Gewissen verschafft? Oder münden die Analysen tatsächlich in größeren | |
| Reparaturarbeiten? Bug-Bounty-Programme sind nicht unumstritten. Kritiker | |
| monieren, dass Unternehmen dadurch junge Programmierer:innen ausbeuten | |
| würden. | |
| Statt Hacker:innen mit einem Fingerlohn abzuspeisen, solle man ihnen | |
| lieber anständige Löhne mit einer Krankenversicherung bezahlen, heißt es. | |
| Wie Google und Facebook beschäftigt auch Twitter | |
| Vertragsarbeiter:innen auf den Philippinen, einen digitalen | |
| Putztrupp, der für ein paar Dollar am Tag den Müll aus dem Netz entfernen | |
| muss. Vielleicht wäre eine faire Bezahlung der erste Schritt zu mehr | |
| Verantwortung. Reparaturen kann man outsourcen. Ethik aber nicht. | |
| 12 Aug 2021 | |
| ## LINKS | |
| [1] /Vorwuerfe-von-schwarzer-KI-Forscherin/!5730475 | |
| [2] /Hate-Speech-im-Netz/!5781835 | |
| ## AUTOREN | |
| Adrian Lobe | |
| ## TAGS | |
| Diversität | |
| Twitter / X | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Rassismus | |
| Gender | |
| TikTok | |
| Soziale Medien | |
| Diskriminierung | |
| ## ARTIKEL ZUM THEMA | |
| Anonymität gegen Rassismus bei Airbnb: Namenlos in den Urlaub | |
| Airbnb verzichtet im US-Bundesstaat Oregon künftig auf den vollen Namen und | |
| das Gesichtsfoto von Gäst:innen. Das soll gegen Rassismus schützen. | |
| Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin | |
| Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches | |
| Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten. | |
| Algorithmen und Diskriminierung: Maschinelle Sittenwächter | |
| Plattformen wie Instagram und Tiktok löschen Fotos von dicken Menschen, die | |
| „zu viel“ nackte Haut zeigen. Das befeuert die Diskriminierung. | |
| Hate Speech im Netz: Wenn Maschinen moderieren | |
| Hasskommentare sind in den sozialen Medien allgegenwärtig. Sie zu melden | |
| ist oft frustrierend – denn hinter den Entscheidungen stecken Algorithmen. | |
| Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
| Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
| ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung. |