Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
> Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von
> männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
Bild: Bei Google Translate wird „the nurse“ automatisch zur „Krankenschwe…
Wer bei Google Translate „the doctor“ eingibt, sieht im Feld nebenan als
Übersetzung den Begriff „der Doktor“. „The nurse“ wird zur
„Krankenschwester“. Dabei könnte es auch „die Ärztin“ und „der
Krankenpfleger“ heißen, denn beide englische Begriffe sind an kein
Geschlecht gebunden.
Dass maschinelle Übersetzungsdienste ihre Grenzen haben, was natürlich
klingende Übertragungen in eine Zielsprache angeht, haben die meisten von
uns bereits selbst erfahren. Weniger bekannt sind die geschlechtsbezogenen
Verzerrungseffekte der Programme – [1][man spricht vom sogenannten Gender
Bias.]
Automatisierte Übersetzungen sind für viele Menschen mittlerweile
alltäglich. Wir verwenden sie im Büro, auf Reisen oder in den sozialen
Medien. Hat man im Gespräch einen wichtigen Begriff nicht parat oder
versteht einen Post auf Facebook nicht, ist das Problem mit einem Klick
gelöst. Dabei sollten wir uns jedoch bewusst machen: Maschinelle
Übersetzungen sind nicht so neutral, wie sie auf den ersten Blick wirken.
Am deutlichsten illustrieren lässt sich der Gender Bias an Sprachen, die
nur ein Pronomen für alle Geschlechter kennen, wie etwa das Finnische. Der
Satz „Hän on opettaja“ könnte gleichermaßen „Sie ist Lehrerin“ oder …
Lehrer“ heißen. Die Übersetzungsmaschine hat also zwei Möglichkeiten:
Entweder bietet sie beide Optionen als Übersetzung an oder sie entscheidet
sich für ein Geschlecht. Aus unserem Beispiel macht sowohl Google als auch
das Kölner Unternehmen DeepL, dessen Übersetzungen häufig besser als bei
der Konkurrenz funktionieren: „Er ist Lehrer“. Bei einer Aussage über eine
Person, die im Kindergarten arbeitet, erscheint hingegen der Satz: „Sie ist
Kindergärtnerin.“
## Vorurteile werden ständig reproduziert
Was hier geschieht: Die Übersetzungsmaschine spiegelt gesellschaftliche
Vorurteile wider. Und das rührt von den Texten her, auf deren Grundlage die
Übersetzungen erstellt werden. Automatisierte Systeme basieren auf Daten.
Im Falle von Übersetzungen sind das Datenbanken, die Textpaare aus je zwei
Sprachen enthalten. Doch Daten sind keine neutralen Informationen aus dem
luftleeren Raum. [2][Welche Bilder, Klischees oder Verzerrungen sie
enthalten, bestimmt, wie ein Textstück übersetzt wird.]
Stichproben zeigen, dass der Gender Bias weit über Berufsklischees
hinausgeht. Auch Adjektive werden Subjekten entsprechend gängiger
Vorurteile zugewiesen. Beginnen wir erneut einen finnischen Satz mit „Hän
on“ und ergänzen Adjektive wie stark, muskulös oder intelligent, bezieht
sich der Satz in der Übersetzung bei Google Translate auf eine männliche
Person – herauskommt etwa: „Er ist stark.“ Wählt man jedoch Adjektive wie
schön oder kinderlieb, wird die Übersetzung weiblich. Dies lässt sich damit
erklären, dass das Programm in seinem Lernprozess Wörter in einen
Zusammenhang stellt, die in den zugrundeliegenden Texten häufig nahe
beieinander stehen. Vorurteile werden so durch die Übersetzungen ständig
reproduziert.
Doch nicht immer basiert die Verzerrung allein auf den zugrundeliegenden
Paralleltexten. Zusätzlich ins Gewicht fällt, dass für viele seltenere
Sprachpaare nicht genügend Referenztexte vorliegen und deshalb ein Umweg
über eine dritte Sprache genommen wird: Die Ausgangssprache wird zunächst
in die Brückensprache übersetzt und von dort aus weiter in die Zielsprache.
Das weltweite Vorherrschen der englischen Sprache lässt diese zur
Brückensprache der Wahl werden. Doch da sich im Englischen viele Begriffe
nicht auf ein bestimmtes Geschlecht beziehen, können auf dem Umweg Inhalte
verlorengehen. Spricht der Ausgangssatz beispielsweise von einer Ärztin,
welche im Englischen zum neutralen Begriff „doctor“ wird, ergibt sich
daraus im Zielsatz vermutlich aufgrund der zugrundeliegenden Textkorpora
ein „Arzt“. So kann die Fixierung auf die englische Sprache als Standard
Übersetzungen verzerren.
## Wie wichtig sind Identität und Erfahrung?
Doch bei bloßen Verzerrungen bleibt es nicht. Nehmen wir den deutschen
Satz: „Zwei Ärztinnen und zwei Ärzte treffen sich.“ Da sowohl Ärztinnen …
auch Ärzte im Englischen unter „doctors“ laufen, nimmt der
Übersetzungsdienst eine versehentliche Doppelung an. So wird aus dem
Ausgangssatz nicht etwa „Two doctors and two doctors meet“, sondern
schlichtweg „Two doctors meet“. Übrig bleiben also nicht vier medizinische
Fachkräfte, sondern nur mehr zwei.
Das gleiche falsche Ergebnis erhält man etwa auch bei einer Übersetzung ins
Spanische, obwohl hier ein weiblicher Begriff existiert. Im Gegensatz zu
Google Translate generiert DeepL allerdings einen Satz mit explizit
genannten weiblichen und männlichen Subjekten: „Two female doctors and two
male doctors meet.“
Dass die Übertragung von Texten kein neutrales, gänzlich unpolitisches
Terrain ist, fällt nicht nur bei maschinellen Übersetzungen auf, sondern
war auch Thema kritischer Berichterstattung im Fall des Gedichts der
amerikanischen Lyrikerin Amanda Gorman. Nicht nur in Deutschland wurde die
Frage gestellt, wer geeignet sei, das Werk der Schwarzen Autorin ins
Deutsche zu übertragen und [3][wie wichtig bei der Auswahl Identität und
Erfahrung der übersetzenden Person sein sollten.]
Die Erfahrung einer Übersetzungsmaschine basiert auf dem, was ihr
beigebracht – in sie eingespeist – wurde. Und so tritt nicht nur ein Gender
Bias zu Tage, sondern auch andere Machtdimensionen lassen sich ausmachen.
Mit dem Begriff „beurette“ werden in Frankreich Frauen bezeichnet, deren
familiäre Geschichte man in Nordafrika verortet. Das Wort kann Beleidigung
sein, wird aber teils auch von Aktivist:innen als Selbstbezeichnung
verwendet.
Besonders weitverbreitet ist es allerdings in der Pornoindustrie, wo
exotisierende Fantasien über „Araberinnen“ bedient werden sollen. Wie
AlgorithmWatch herausfand, kommt der Begriff in den Textkorpora des
umfangreichen Datensets ParaCrawl in insgesamt 228 Sätzen vor – 222 davon
stammen offenbar von Porno-Websites. Die Maschine lernt also Begriffe in
einem Kontext kolonialer, sexistisch-rassistischer Narrative.
## Die Datengrundlage
Doch an genau diesem Kontext orientiert sich das Programm, wenn es seine
Worte und Kombinationen wählt. Ein Ansatz, den Gender Bias zu reduzieren,
ist daher Forscher:innen zufolge, die Kategorie Gender als Metadaten ins
System mit einzuspeisen.
Für eine Studie wurden dafür Sätze in einer großen Textdatenbank durch das
jeweilige Geschlecht der Sprechenden ergänzt, was für einige Sprachenpaare
zu akkurateren Übersetzungen führte. Auch andere technische Lösungen sind
denkbar, etwa eine Duplizierung von Sätzen: Hier werden in den Textdaten
zum Beispiel männlich konnotierte Sätze durch den jeweils gleichen Satz in
weiblicher Form ergänzt, um die Verzerrung hin zum männlichen Geschlecht
auszugleichen. Und nicht zuletzt kommt es auch auf die Auswahl der
Datensets selbst an: Diese sind zwar groß, aber niemand überprüft, wie
realistisch sie unsere Gesellschaft darstellen. Außerdem bleibt die Frage
offen, wie sich die Systeme für andere Geschlechtsidentitäten als männlich
und weiblich öffnen ließen.
Einige Verbesserungsmöglichkeiten werden von den Konzernen hinter den
Übersetzungsprogrammen bereits erprobt, etwa die Anfertigung von
Übersetzungen ohne die Verwendung von Brückensprachen. In einigen wenigen
Fällen spucken Programme bei neutralen Begriffen auch heute schon eine
weibliche und eine männliche Form aus. Allerdings können selbst kleinste
Anpassungen im Ausgangstext – etwa die Verwendung eines Artikels oder
Großschreibung – das Ergebnis verändern. Das macht deutlich, wie
fehleranfällig die Systeme aktuell noch sind. Aber sollten wir überhaupt in
die Abläufe eingreifen? Spiegeln die Übersetzungen nicht schlichtweg die
realen Verhältnisse der Welt mit all ihren Ungerechtigkeiten wider?
Nein, denn die genutzten Daten sind zum einen häufig veraltet, zum anderen
durch eine Überrepräsentation an Männlichkeit verzerrt. So entstehen neben
Ergebnissen, die Vorurteile potenzieren auch schlicht falsche
Übersetzungen. Deshalb braucht es für weitreichendere Entschärfungen des
Gender Bias in Übersetzungsprogrammen nicht nur Computerspezialist:innen,
sondern auch eine engere Zusammenarbeit mit Expert:innen aus anderen
Disziplinen wie den Gender Studies. Wenn Übersetzungsmaschinen als
vorurteilsfreie Sprachendienstleister auftreten wollen, muss die
männlich-weiße Norm in ihren Daten entmachtet werden.
19 May 2021
## LINKS
[1] /Dokumentarfilm-Coded-Bias/!5770648
[2] /Lernende-Maschinen/!5755050
[3] /Rassismus-in-Algorithmen/!5693454
## AUTOREN
Nadja Kutscher
## TAGS
Schwerpunkt Rassismus
Schwerpunkt Gender und Sexualitäten
Podcast „Vorgelesen“
GNS
Daten
Schwerpunkt Künstliche Intelligenz
Algorithmus
Schwerpunkt Rassismus
Diskriminierung
Datenschutz
Roboter
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
KI statt Parlamentarier*nnen: Wunsch nach automatisierter Politik
Laut einer Studie würde eine Mehrheit Politiker*innen durch KI
ersetzen. Doch das wäre keine Chance, sondern eine Gefahr für Demokratie.
Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger
ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.
Dokumentarfilm „Coded Bias“: Einäugige Maschinen
Menschen können rassistisch und sexistisch sein – so wie die Algorithmen,
die uns das Leben erleichtern: Die Hamburger W3 zeigt die Doku „Coded
Bias“.
Lernende Maschinen: Entscheiden muss der Mensch
Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der
Oberfläche. Vieles ist bisher nur Wunsch und Utopie.
Facebooks Algorithmen werden geprüft: Diskriminierung im System
Der Internetkonzern Facebook will untersuchen, ob seine Algorithmen
rassistisch diskriminieren. Dabei ist längst bekannt, dass sie das tun.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.