# taz.de -- Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
> Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
> ausdrucksstark erscheinen – und bewirken eine strukturelle | |
> Benachteiligung. | |
Bild: Bekommen nicht nur weniger Geld, sondern werden auch schlechter gehört: … | |
Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben | |
Fortscher*innen herausgefunden. Meldungen wie diese bringen das Bild | |
„nüchterner“ Technologie zum Bröckeln. Doch [1][wenn digitale Anwendungen | |
diskriminieren], liegt das meist an den Menschen, die sie entwickeln. | |
Das Arbeitsmeeting mit den Kolleg*innen via „Teams“, das | |
Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In… | |
Coronapandemie sind Videokonferenzen für viele Menschen alltäglich | |
geworden. Umso gewichtiger sind die Erkenntnisse [2][einer kürzlich | |
veröffentlichten Studie] der Universität Magdeburg. | |
In Zusammenarbeit mit der dänischen Universität Sønderborg fanden | |
Wissenschaftler*innen heraus, dass Frauen wegen der Stimmverarbeitung | |
in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache | |
werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es | |
dort. In der Konsequenz werden weibliche Redebeiträge als weniger | |
ausdrucksstark, kompetent und charismatisch wahrgenommen. | |
„An der Entwicklung von Informationstechnik sind nun mal vor allem Männer | |
beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur | |
knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und | |
bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten | |
Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile | |
(auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der | |
Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF | |
Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr | |
Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft | |
einsetzt. | |
## Der rassistische Seifenspender | |
Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP | |
beschäftigt und ist sich der Homogenität der Branche bewusst. Weil | |
Diversität in der Belegschaft fehlt, werden die Belange zahlreicher | |
gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht | |
nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für | |
diskriminierende digitale Anwendungen von vielen. | |
Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren | |
Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die | |
von Schwarzen. Ein [3][mehrere Millionen Mal geklicktes Video], in dem ein | |
Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine | |
Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils | |
absurden Auswirkungen des Problems vor Augen. | |
Hinzu komme, dass die Diskriminierung durch eine algorithmische | |
Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten | |
intersektional wirke, wie Hanstein betont: „Wenn wir | |
Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, | |
sind diese Module nun mal sehr gut im Erkennen von weißen Männern, | |
[4][nicht aber von Schwarzen Frauen], beispielsweise.“ | |
Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine | |
Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung | |
zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an | |
der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr | |
rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und | |
diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht. | |
Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was | |
wir als Individuen mitbringen.“ | |
## Diskriminierender Algorithmus | |
Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht | |
ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie | |
tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem | |
Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im | |
Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet | |
schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von | |
Arbeitslosen vorhersagen und sie für entsprechende Schulungen den | |
Mitarbeiter*innen des Arbeitsmarktservice (AMS) vorschlagen soll – | |
oder eben nicht. | |
Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund | |
schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn | |
sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder | |
niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende | |
Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus | |
verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu | |
sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die | |
sie reproduziert – oder potenziert. | |
In Deutschland [5][könnte das Onlinezugangsgesetz], wonach ab Ende 2022 die | |
Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden | |
sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600 | |
Leistungen, von Führerscheinbeantragung über Namensänderungen und | |
Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen. | |
„Es sind teilweise kritische Dinge, über die entschieden werden soll und | |
die Tragweite ist ungleich größer: Bei einer diskriminierenden | |
Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin | |
eine gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems | |
betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich | |
weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig | |
nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“, | |
so Hanstein. | |
## Die Chancen von KI | |
Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um | |
derartig große Herausforderungen genauer zu regeln. Darin ist ein | |
generelles Verbot von Massenüberwachung oder Manipulation der | |
Bürger*innen vorgesehen, [6][womit einem „Social Scoring“] nach | |
chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit | |
Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren | |
Steuern oder Reisebeschränkungen, bestraft. | |
„Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen | |
Kontext, die sensible Infrastruktur betreffen und solche, die | |
Bewerber*innen für einen Job auswählen, sollen in ihrer Entwicklung | |
wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung | |
dokumentiert, transparent gemacht und von Menschen überwacht werden. | |
Das geplante System des AMS in Österreich fiele vermutlich in diese | |
Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als | |
auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu | |
zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das | |
Diskriminierungspotenzial von Algorithmen zu schaffen und an den | |
menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich | |
sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die | |
Chancen, die sie im Alltag und der Arbeitswelt eröffnet. | |
„Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der | |
sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen | |
sinkenden Blutzuckerspiegel und keine Launen. Wir können sie genauso gut | |
dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere | |
Prozesse zu ermöglichen.“ | |
## Hassrede identifizieren | |
Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich | |
entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die | |
Alfred Landecker Foundation arbeitet unter anderem mit der Technischen | |
Universität Berlin und dem King’s College London an einer | |
Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von | |
verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen | |
Medien, ausfindig machen soll. | |
Großes Potenzial bergen auch Anwendungen, die die Sprache in | |
Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen | |
Kompetenzen oftmals unterschätzten und von einer Bewerbung | |
zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“ | |
entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie | |
diese gegenüber dem Einfluss der „Big Player“ wie der KI in der | |
Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas | |
entgegensetzen können, ist fraglich. | |
Doch Hanstein ist sich sicher, dass in der Branche allmählich ein | |
Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und | |
Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung | |
digitaler Anwendungen beteiligt sind, allerdings noch nicht. | |
29 May 2021 | |
## LINKS | |
[1] /Gender-Bias-bei-Uebersetzungsoftware/!5766373 | |
[2] http://www.essv.de/essv2021/pdfs/06_siegert_v2.pdf | |
[3] https://twitter.com/nke_ise/status/897756900753891328 | |
[4] /Dokumentarfilm-Coded-Bias/!5770648 | |
[5] /Regierung-plant-Identitaetsnummer/!5737871 | |
[6] /Machtkampf-zwischen-USA-und-China/!5645065 | |
## AUTOREN | |
Arabella Wintermayr | |
## TAGS | |
Diskriminierung | |
künstliche Intelligenz | |
Sexismus | |
GNS | |
Podcast „Vorgelesen“ | |
Schwerpunkt Rassismus | |
Schwerpunkt Rassismus | |
Datenschutz | |
Datenschutz | |
## ARTIKEL ZUM THEMA | |
Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
reicht das am Ende, um die Diskriminierung zu stoppen? | |
KI statt Parlamentarier*nnen: Wunsch nach automatisierter Politik | |
Laut einer Studie würde eine Mehrheit Politiker*innen durch KI | |
ersetzen. Doch das wäre keine Chance, sondern eine Gefahr für Demokratie. | |
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen | |
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von | |
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen. | |
Dokumentarfilm „Coded Bias“: Einäugige Maschinen | |
Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, | |
die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded | |
Bias“. | |
Regierung plant Identitätsnummer: Eine Ziffer fürs Leben | |
Die Bundesregierung plant eine einheitliche Identitätsnummer für jeden | |
Bürger. Datenschützer sind skeptisch. |