# taz.de -- die dritte meinung: Künstliche Intelligenz hat ein Sexismusproblem… | |
Können Algorithmen sexistisch sein? Eigentlich sind sie mathematische | |
Regeln und als solche geschlechtsneutral. Aber: Algorithmen verknüpfen | |
Informationen, die Entwickler*innen für sie auswählen. Einige Beispiele: 60 | |
Prozent der Medizinstudierenden und 46 Prozent der Ärzt*innen in | |
Deutschland sind Frauen. Wer aber den neutralen Begriff „doctor“ in Google | |
Translate eingibt, bekommt auf Deutsch einen männlichen „Arzt“ übersetzt. | |
Gleiches gilt bei Journalisten, Psychologen und Geschäftsführern. Jahrelang | |
diskriminierte auch das Karrierenetzwerk XING Frauen. Bei der Suche nach | |
Journalisten oder Grafikern wurden nur Männer angezeigt – „mitgemeinte“ | |
Frauen blieben außen vor. In der Google-Bildersuche tauchen zum Stichwort | |
„Mensch“ unter den Top-Suchergebnissen ausschließlich weiße Männer und | |
geschlechtsneutrale Strichmännchen auf. Auch mit solchen Datensätzen wird | |
künstliche Intelligenz trainiert. | |
Diese Programme bilden bestehende Unterschiede nicht nur ab, sondern | |
verschärfen sie. Angesichts der unzähligen gesellschaftlich sensiblen | |
Einsatzbereiche solcher Programme in der Zukunft müssen wir sicherstellen, | |
dass künstliche Intelligenz Diskriminierung nicht massiv verschärft. Wie | |
lässt sich das Problem lösen? | |
Erstens müssen Anbieter die aktuellen Missverhältnisse beim Design ihrer | |
Programme mitdenken. Zweitens müssen Unternehmen den Frauenanteil in der | |
Tech-Branche steigern – auch über eine Frauenquote. Drittens muss eine | |
Sensibilisierung für Gender- und Rassismusfragen im Informatikstudium | |
verankert werden. Viertens kann Forschung eine wichtige Rolle bei der | |
Erarbeitung diskriminierungsfreier Datensätze und beim Testen von | |
Programmen auf Diskriminierungsfreiheit spielen. Und fünftens muss eine | |
paritätisch besetzte europäische Algorithmenaufsicht eingerichtet werden, | |
die Algorithmen auf Diskriminierungsfreiheit prüft. | |
Hier liegt Europas Chance. Diskriminierungsfreie künstliche Intelligenz | |
kann unser Alleinstellungsmerkmal werden. | |
21 Feb 2019 | |
## AUTOREN | |
Alexandra Geese | |
## ARTIKEL ZUM THEMA |