Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
> Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
> ausdrucksstark erscheinen – und bewirken eine strukturelle
> Benachteiligung.
Bild: Bekommen nicht nur weniger Geld, sondern werden auch schlechter gehört: …
Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben
Fortscher*innen herausgefunden. Meldungen wie diese bringen das Bild
„nüchterner“ Technologie zum Bröckeln. Doch [1][wenn digitale Anwendungen
diskriminieren], liegt das meist an den Menschen, die sie entwickeln.
Das Arbeitsmeeting mit den Kolleg*innen via „Teams“, das
Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In…
Coronapandemie sind Videokonferenzen für viele Menschen alltäglich
geworden. Umso gewichtiger sind die Erkenntnisse [2][einer kürzlich
veröffentlichten Studie] der Universität Magdeburg.
In Zusammenarbeit mit der dänischen Universität Sønderborg fanden
Wissenschaftler*innen heraus, dass Frauen wegen der Stimmverarbeitung
in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache
werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es
dort. In der Konsequenz werden weibliche Redebeiträge als weniger
ausdrucksstark, kompetent und charismatisch wahrgenommen.
„An der Entwicklung von Informationstechnik sind nun mal vor allem Männer
beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur
knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und
bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten
Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile
(auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der
Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF
Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr
Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft
einsetzt.
## Der rassistische Seifenspender
Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP
beschäftigt und ist sich der Homogenität der Branche bewusst. Weil
Diversität in der Belegschaft fehlt, werden die Belange zahlreicher
gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht
nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für
diskriminierende digitale Anwendungen von vielen.
Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren
Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die
von Schwarzen. Ein [3][mehrere Millionen Mal geklicktes Video], in dem ein
Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine
Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils
absurden Auswirkungen des Problems vor Augen.
Hinzu komme, dass die Diskriminierung durch eine algorithmische
Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten
intersektional wirke, wie Hanstein betont: „Wenn wir
Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren,
sind diese Module nun mal sehr gut im Erkennen von weißen Männern,
[4][nicht aber von Schwarzen Frauen], beispielsweise.“
Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine
Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung
zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an
der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr
rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und
diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht.
Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was
wir als Individuen mitbringen.“
## Diskriminierender Algorithmus
Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht
ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie
tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem
Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im
Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet
schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von
Arbeitslosen vorhersagen und sie für entsprechende Schulungen den
Mitarbeiter*innen des Arbeitsmarktservice (AMS) vorschlagen soll –
oder eben nicht.
Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund
schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn
sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder
niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende
Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus
verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu
sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die
sie reproduziert – oder potenziert.
In Deutschland [5][könnte das Onlinezugangsgesetz], wonach ab Ende 2022 die
Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden
sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600
Leistungen, von Führerscheinbeantragung über Namensänderungen und
Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen.
„Es sind teilweise kritische Dinge, über die entschieden werden soll und
die Tragweite ist ungleich größer: Bei einer diskriminierenden
Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin
eine gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems
betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich
weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig
nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“,
so Hanstein.
## Die Chancen von KI
Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um
derartig große Herausforderungen genauer zu regeln. Darin ist ein
generelles Verbot von Massenüberwachung oder Manipulation der
Bürger*innen vorgesehen, [6][womit einem „Social Scoring“] nach
chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit
Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren
Steuern oder Reisebeschränkungen, bestraft.
„Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen
Kontext, die sensible Infrastruktur betreffen und solche, die
Bewerber*innen für einen Job auswählen, sollen in ihrer Entwicklung
wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung
dokumentiert, transparent gemacht und von Menschen überwacht werden.
Das geplante System des AMS in Österreich fiele vermutlich in diese
Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als
auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu
zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das
Diskriminierungspotenzial von Algorithmen zu schaffen und an den
menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich
sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die
Chancen, die sie im Alltag und der Arbeitswelt eröffnet.
„Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der
sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen
sinkenden Blutzuckerspiegel und keine Launen. Wir können sie genauso gut
dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere
Prozesse zu ermöglichen.“
## Hassrede identifizieren
Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich
entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die
Alfred Landecker Foundation arbeitet unter anderem mit der Technischen
Universität Berlin und dem King’s College London an einer
Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von
verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen
Medien, ausfindig machen soll.
Großes Potenzial bergen auch Anwendungen, die die Sprache in
Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen
Kompetenzen oftmals unterschätzten und von einer Bewerbung
zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“
entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie
diese gegenüber dem Einfluss der „Big Player“ wie der KI in der
Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas
entgegensetzen können, ist fraglich.
Doch Hanstein ist sich sicher, dass in der Branche allmählich ein
Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und
Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung
digitaler Anwendungen beteiligt sind, allerdings noch nicht.
29 May 2021
## LINKS
[1] /Gender-Bias-bei-Uebersetzungsoftware/!5766373
[2] http://www.essv.de/essv2021/pdfs/06_siegert_v2.pdf
[3] https://twitter.com/nke_ise/status/897756900753891328
[4] /Dokumentarfilm-Coded-Bias/!5770648
[5] /Regierung-plant-Identitaetsnummer/!5737871
[6] /Machtkampf-zwischen-USA-und-China/!5645065
## AUTOREN
Arabella Wintermayr
## TAGS
Diskriminierung
Sexismus
Podcast „Vorgelesen“
GNS
Schwerpunkt Künstliche Intelligenz
Diversität
Schwerpunkt Rassismus
Schwerpunkt Rassismus
Datenschutz
Datenschutz
## ARTIKEL ZUM THEMA
Twitter-KI diverser machen: Suche nach dem Superprogrammierer
Das US-Netzwerk Twitter lässt seine Algorithmen von Externen prüfen. Aber
reicht das am Ende, um die Diskriminierung zu stoppen?
KI statt Parlamentarier*nnen: Wunsch nach automatisierter Politik
Laut einer Studie würde eine Mehrheit Politiker*innen durch KI
ersetzen. Doch das wäre keine Chance, sondern eine Gefahr für Demokratie.
Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
Dokumentarfilm „Coded Bias“: Einäugige Maschinen
Menschen können rassistisch und sexistisch sein – so wie die Algorithmen,
die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded
Bias“.
Regierung plant Identitätsnummer: Eine Ziffer fürs Leben
Die Bundesregierung plant eine einheitliche Identitätsnummer für jeden
Bürger. Datenschützer sind skeptisch.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.