| # taz.de -- Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch | |
| > Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger | |
| > ausdrucksstark erscheinen – und bewirken eine strukturelle | |
| > Benachteiligung. | |
| Bild: Bekommen nicht nur weniger Geld, sondern werden auch schlechter gehört: … | |
| Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben | |
| Fortscher*innen herausgefunden. Meldungen wie diese bringen das Bild | |
| „nüchterner“ Technologie zum Bröckeln. Doch [1][wenn digitale Anwendungen | |
| diskriminieren], liegt das meist an den Menschen, die sie entwickeln. | |
| Das Arbeitsmeeting mit den Kolleg*innen via „Teams“, das | |
| Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In… | |
| Coronapandemie sind Videokonferenzen für viele Menschen alltäglich | |
| geworden. Umso gewichtiger sind die Erkenntnisse [2][einer kürzlich | |
| veröffentlichten Studie] der Universität Magdeburg. | |
| In Zusammenarbeit mit der dänischen Universität Sønderborg fanden | |
| Wissenschaftler*innen heraus, dass Frauen wegen der Stimmverarbeitung | |
| in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache | |
| werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es | |
| dort. In der Konsequenz werden weibliche Redebeiträge als weniger | |
| ausdrucksstark, kompetent und charismatisch wahrgenommen. | |
| „An der Entwicklung von Informationstechnik sind nun mal vor allem Männer | |
| beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur | |
| knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und | |
| bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten | |
| Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile | |
| (auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der | |
| Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF | |
| Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr | |
| Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft | |
| einsetzt. | |
| ## Der rassistische Seifenspender | |
| Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP | |
| beschäftigt und ist sich der Homogenität der Branche bewusst. Weil | |
| Diversität in der Belegschaft fehlt, werden die Belange zahlreicher | |
| gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht | |
| nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für | |
| diskriminierende digitale Anwendungen von vielen. | |
| Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren | |
| Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die | |
| von Schwarzen. Ein [3][mehrere Millionen Mal geklicktes Video], in dem ein | |
| Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine | |
| Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils | |
| absurden Auswirkungen des Problems vor Augen. | |
| Hinzu komme, dass die Diskriminierung durch eine algorithmische | |
| Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten | |
| intersektional wirke, wie Hanstein betont: „Wenn wir | |
| Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, | |
| sind diese Module nun mal sehr gut im Erkennen von weißen Männern, | |
| [4][nicht aber von Schwarzen Frauen], beispielsweise.“ | |
| Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine | |
| Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung | |
| zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an | |
| der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr | |
| rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und | |
| diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht. | |
| Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was | |
| wir als Individuen mitbringen.“ | |
| ## Diskriminierender Algorithmus | |
| Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht | |
| ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie | |
| tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem | |
| Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im | |
| Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet | |
| schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von | |
| Arbeitslosen vorhersagen und sie für entsprechende Schulungen den | |
| Mitarbeiter*innen des Arbeitsmarktservice (AMS) vorschlagen soll – | |
| oder eben nicht. | |
| Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund | |
| schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn | |
| sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder | |
| niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende | |
| Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus | |
| verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu | |
| sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die | |
| sie reproduziert – oder potenziert. | |
| In Deutschland [5][könnte das Onlinezugangsgesetz], wonach ab Ende 2022 die | |
| Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden | |
| sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600 | |
| Leistungen, von Führerscheinbeantragung über Namensänderungen und | |
| Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen. | |
| „Es sind teilweise kritische Dinge, über die entschieden werden soll und | |
| die Tragweite ist ungleich größer: Bei einer diskriminierenden | |
| Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin | |
| eine gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems | |
| betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich | |
| weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig | |
| nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“, | |
| so Hanstein. | |
| ## Die Chancen von KI | |
| Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um | |
| derartig große Herausforderungen genauer zu regeln. Darin ist ein | |
| generelles Verbot von Massenüberwachung oder Manipulation der | |
| Bürger*innen vorgesehen, [6][womit einem „Social Scoring“] nach | |
| chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit | |
| Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren | |
| Steuern oder Reisebeschränkungen, bestraft. | |
| „Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen | |
| Kontext, die sensible Infrastruktur betreffen und solche, die | |
| Bewerber*innen für einen Job auswählen, sollen in ihrer Entwicklung | |
| wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung | |
| dokumentiert, transparent gemacht und von Menschen überwacht werden. | |
| Das geplante System des AMS in Österreich fiele vermutlich in diese | |
| Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als | |
| auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu | |
| zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das | |
| Diskriminierungspotenzial von Algorithmen zu schaffen und an den | |
| menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich | |
| sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die | |
| Chancen, die sie im Alltag und der Arbeitswelt eröffnet. | |
| „Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der | |
| sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen | |
| sinkenden Blutzuckerspiegel und keine Launen. Wir können sie genauso gut | |
| dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere | |
| Prozesse zu ermöglichen.“ | |
| ## Hassrede identifizieren | |
| Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich | |
| entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die | |
| Alfred Landecker Foundation arbeitet unter anderem mit der Technischen | |
| Universität Berlin und dem King’s College London an einer | |
| Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von | |
| verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen | |
| Medien, ausfindig machen soll. | |
| Großes Potenzial bergen auch Anwendungen, die die Sprache in | |
| Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen | |
| Kompetenzen oftmals unterschätzten und von einer Bewerbung | |
| zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“ | |
| entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie | |
| diese gegenüber dem Einfluss der „Big Player“ wie der KI in der | |
| Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas | |
| entgegensetzen können, ist fraglich. | |
| Doch Hanstein ist sich sicher, dass in der Branche allmählich ein | |
| Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und | |
| Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung | |
| digitaler Anwendungen beteiligt sind, allerdings noch nicht. | |
| 29 May 2021 | |
| ## LINKS | |
| [1] /Gender-Bias-bei-Uebersetzungsoftware/!5766373 | |
| [2] http://www.essv.de/essv2021/pdfs/06_siegert_v2.pdf | |
| [3] https://twitter.com/nke_ise/status/897756900753891328 | |
| [4] /Dokumentarfilm-Coded-Bias/!5770648 | |
| [5] /Regierung-plant-Identitaetsnummer/!5737871 | |
| [6] /Machtkampf-zwischen-USA-und-China/!5645065 | |
| ## AUTOREN | |
| Arabella Wintermayr | |
| ## TAGS | |
| Diskriminierung | |
| Sexismus | |
| Podcast „Vorgelesen“ | |
| GNS | |
| Schwerpunkt Künstliche Intelligenz | |
| Diversität | |
| Schwerpunkt Rassismus | |
| Schwerpunkt Rassismus | |
| Datenschutz | |
| Datenschutz | |
| ## ARTIKEL ZUM THEMA | |
| Twitter-KI diverser machen: Suche nach dem Superprogrammierer | |
| Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber | |
| reicht das am Ende, um die Diskriminierung zu stoppen? | |
| KI statt Parlamentarier*nnen: Wunsch nach automatisierter Politik | |
| Laut einer Studie würde eine Mehrheit Politiker*innen durch KI | |
| ersetzen. Doch das wäre keine Chance, sondern eine Gefahr für Demokratie. | |
| Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen | |
| Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von | |
| männlicher Norm. Sie reproduzieren real existierende Zuschreibungen. | |
| Dokumentarfilm „Coded Bias“: Einäugige Maschinen | |
| Menschen können rassistisch und sexistisch sein – so wie die Algorithmen, | |
| die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded | |
| Bias“. | |
| Regierung plant Identitätsnummer: Eine Ziffer fürs Leben | |
| Die Bundesregierung plant eine einheitliche Identitätsnummer für jeden | |
| Bürger. Datenschützer sind skeptisch. |