Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Wie KI Sexismus produziert: Die Frau ist immer unter 35
> Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein
> misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
Bild: Kann sie auch Führungskraft? Der KI zufolge eher nicht
Die KI liebt junge Frauen. Allerdings nicht in jedem Fall, vor allem nicht
in maßgeblichen gesellschaftlichen Positionen. Es fällt auf, dass Frauen
entweder gar nicht oder nur selten in Funktionen wie der von
Wissenschaftlerinnen, Ärztinnen oder Ingenieurinnen repräsentiert sind. Von
Vorstandsmitgliedern ganz zu schweigen. Das gilt allen voran [1][für den
Generator „Midjourney“], dem derzeit führenden Programm für Kreative.
Dabei fängt das Missverhältnis früher an. Aufschluss gibt der simple
Begriff „Frau“. Über einen Zeitraum von fünf Monaten habe ich immer wieder
diesen „Prompt“ bei Midjourney eingetippt und 100 Bilder erzeugt. 100 Mal
bekam ich das Bild einer sehr schönen jungen Frau gezeigt. Manche würden
sie „idealtypisch“ nennen.
Das „Ideal“ geht so weit, dass man kaum individuelle Gesichtszüge
unterscheiden kann. Die praktisch immer Langhaarige befindet sich in 97
Prozent aller Abbildungen in einer nicht näher definierten Umgebung, im
luftleeren Raum und sieht oft aus, als blase eine Windmaschine ihre Mähne
romantisch um den Kopf. Wenn sonst noch etwas zu sehen ist, sind es Blumen
im wirbelnden Haar, Schmetterlinge oder Vögel.
Gibt man den Begriff „Mann“ ein, so erscheinen Männer verschiedenen Alters.
Auch sie können sich in einer etwas wolkigen, unklaren Umgebung befinden,
als Attribute aber dienen ihnen Technik oder Architektur. Oft stehen sie
beherzt in einer Landschaft, schauen ernst oder blicken nachdenklich in die
Ferne. Die Frau dagegen kennt nur einen Gesichtsausdruck: den leeren.
## Männer mit Betätigungsfeld
Das entspricht dem, was [2][die Filmemacherin Nina Menkes in ihrem Film
„Brainwashed“] über die visuelle Darstellung von Frauen und Männer in
Hollywoodfilmen zeigt. Sie hat hochwertige Hollywoodproduktionen der 1940er
Jahre bis zu aktuellen analysiert. Was man dort sieht: Männer mit einem
Betätigungsfeld, verankert in der Welt als Akteure, als Subjekte. Die Frau
hat oft einen unklaren, neutralen Hintergrund, sie handelt nicht, die
Konzentration liegt auf ihrem Äußeren. So schwebt sie quasi im Raum oder
liegt ansprechend herum – eine Projektionsfläche.
Der Film von Nina Menkes ist deshalb so sehenswert, weil er sichtbar macht,
was wir seit Jahrzehnten sehen, ohne es wahrzunehmen. Und wie wir den
männlichen Blick internalisiert haben. Nicht einmal Sofia Coppola ist davor
sicher. Sogar sie rutscht in die tradierte Bildsprache, wenn sie in „Lost
in Translation“ im Vorspann von Scarlett Johansson nur den Po im
transparenten Schlüpfer zeigt und anschließend Bill Murrays Kopf im Taxi,
wie er durch die Stadt gleitet.
Nun haben wir mit der KI ein Tool, das die verrücktesten Ideen
visualisieren kann. Wenn man den führenden Köpfen des Silicon Valley
glaubt, wird KI die Menschheit verbessern und nie geahnte Möglichkeiten der
Problemlösung schaffen. Nur das Rollenverständnis dieser Welt scheint
stecken geblieben zu sein, in einem Sci-fi-Groschenroman oder einem
Computerspiel mit markigen Männern und kurvigen Frauen. Obendrein erzeugt
Midjourney, sofern man keine weiteren Angaben zur Ethnie macht, [3][nahezu
ausschließlich weiße Personen], so meine Erfahrung. Ist unsere Realität
bereits männlich und weiß dominiert, so ist die der KI noch weißer, noch
männlicher.
[4][Eine Studie von Bloomberg zum Generator Stable Diffusion] vom Juni 2023
zeigt Folgendes: Frauen haben kaum lukrative Jobs oder bekleiden
Machtpositionen. Im Test wurden beim Begriff „judge“ 3 Prozent Frauen
generiert, während in der echten Welt 34 Prozent der US-Richter Frauen
sind. „Doctors“ in den USA sind zu 40 Prozent weiblich, in der Welt von
Stable Diffusion sind es aber nur 7 Prozent. Hier waren Frauen insgesamt
nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in
schlecht bezahlten Berufen überrepräsentiert. Ergebnis: Als schwarze Frau
brät man Burger oder macht sauber.
## Stereotypisierte Gegenwart
Praktisch keine Rolle spielen Frauen ab Mitte 40. Während Männer bis zum
Greisenalter dargestellt werden, ist die Frau so gut wie immer unter 35.
„Fuckable“ nennt man das.
Pflegepersonal bei Midjourney und Dreamstudio (Stability AI) ist in meinen
Tests zu 100 Prozent weiblich und weiß, dazu in der Regel sexualisiert –
die comicartige feuchte Vorstellung einer Krankenschwester statt
medizinischer Fachkraft. Bei Dall-e gibt es immerhin männliche Pfleger, und
Weiße sind sogar in der Minderheit, ergibt jedenfalls ein Versuch mit
jeweils 20 Prompteingaben mit je vier Ergebnissen, also 80 Bildern.
Es lässt sich nicht genau nachvollziehen, wie es dazu kommt. Am ehesten
fassbar ist es bei Stable Diffusion, dem einzigen Generator, dessen
Datengrundlage offengelegt wurde. Es handelt sich um die Datenbank
LAION-5B, die aus fünf Milliarden Text-Bild-Paaren besteht. Sie stammen aus
Quellen wie Bildagenturen, Websites, Handydaten. Und weil die Datenbank
nicht nur die bereits stereotypisierte Gegenwart abbildet, sondern auch die
Vergangenheit, verstärken sich gestrige Gesellschaftsbilder. Man hätte dem
entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein.
Vielleicht liegt es daran, dass in der IT-Industrie nur 12 bis 20 Prozent
Frauen arbeiten. Im Jahr 2019 lag der Frauenanteil bei
Informatik-Promotionen in den USA bei 20 Prozent, in Deutschland bei 16
Prozent. Dieses Missverhältnis schlägt sich inhaltlich nieder.
## Kunst des cleveren Prompts
Natürlich kann man durch gezielte Prompts viele Voreinstellungen umgehen.
Die Kunst besteht aus einem möglichst cleveren, oft komlexen Prompt. Aber
nicht alle merken, dass es hier eine Schieflage gibt und nicht alle haben
den Nerv dafür, wenn es eilt und als Ergebnis ein mittelgutes Bild auch
reicht.
Eine Initiative aus den Niederlanden versucht der Männerdominanz mit einem
eigenen Tool entgegenzuwirken. „Missjourney“ ist ein Bildgenerator, der nur
Frauenbilder erzeugt, egal welche Features man eingibt. Allerdings ist die
Plattform eher ein symbolisches Werkzeug, sie kann mit ihrer Ausstattung an
andere Anbieter nicht heranreichen. Sie soll vor allem Bewusstsein
schaffen.
Wenn wir nicht wollen, dass sich Bilder, von denen wir dachten, wir hätten
sie bereits überwunden, in gewaltiger Menge reproduzieren, verfestigen und
potenzieren, müssen wir versuchen, die Tech-Firmen zu beeinflussen. Wir
müssen sie unermüdlich darauf hinweisen, wie sexistisch und rassistisch
ihre Parameter sind. Dafür müssen wir viele sein und Lösungsvorschläge
parat haben. Eine gesetzliche Regelung ist in naher Zukunft nicht zu
erwarten. Es bleibt wohl nur, ihnen auf die Nerven gehen.
Eva Häberle ist seit 25 Jahren freischaffende Fotografin.
30 Nov 2023
## LINKS
[1] /Klara-Indernach-schreibt-fuer-Express/!5958414
[2] /Sexismus-in-der-Filmbranche/!5831917
[3] /Kuenstliche-rassistische-Bilder/!5923104
[4] https://www.bloomberg.com/graphics/2023-generative-ai-bias/?utm_source=webs…
## AUTOREN
Eva Häberle
## TAGS
Schwerpunkt Künstliche Intelligenz
Fotografie
Sexismus
Schwerpunkt Künstliche Intelligenz
TV-Serien
Schwerpunkt Rassismus
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Chatbot „AndersDenken“: Besonnen geworden
„AndersDenken“ liefert nicht nur Argumente für nervige Diskussionen. Er
lädt auch zur Reflexion ein.
„Aus Mangel an Beweisen“ bei Apple TV: Gyllenhaal ist reich und traurig
In der Serie „Aus Mangel an Beweisen“ wird die Chance auf ein zeitgemäßes
Remake des 90er-Jahre-Klassikers vertan – und zwar massiv.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
Künstliche rassistische Bilder: KI zeigt wahres Gesicht der AfD
AfD-Politiker Norbert Kleinwächter hetzte mit KI-Bildern gegen Geflüchtete.
Die Täuschung zeigt aber auch ungeschminkte Realität – die des Rassismus.
Künstliche Intelligenz als Fotogenerator: Falsche Gesichter
Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht gibt.
Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und Bots.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.