# taz.de -- Wie KI Sexismus produziert: Die Frau ist immer unter 35 | |
> Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein | |
> misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen. | |
Bild: Kann sie auch Führungskraft? Der KI zufolge eher nicht | |
Die KI liebt junge Frauen. Allerdings nicht in jedem Fall, vor allem nicht | |
in maßgeblichen gesellschaftlichen Positionen. Es fällt auf, dass Frauen | |
entweder gar nicht oder nur selten in Funktionen wie der von | |
Wissenschaftlerinnen, Ärztinnen oder Ingenieurinnen repräsentiert sind. Von | |
Vorstandsmitgliedern ganz zu schweigen. Das gilt allen voran [1][für den | |
Generator „Midjourney“], dem derzeit führenden Programm für Kreative. | |
Dabei fängt das Missverhältnis früher an. Aufschluss gibt der simple | |
Begriff „Frau“. Über einen Zeitraum von fünf Monaten habe ich immer wieder | |
diesen „Prompt“ bei Midjourney eingetippt und 100 Bilder erzeugt. 100 Mal | |
bekam ich das Bild einer sehr schönen jungen Frau gezeigt. Manche würden | |
sie „idealtypisch“ nennen. | |
Das „Ideal“ geht so weit, dass man kaum individuelle Gesichtszüge | |
unterscheiden kann. Die praktisch immer Langhaarige befindet sich in 97 | |
Prozent aller Abbildungen in einer nicht näher definierten Umgebung, im | |
luftleeren Raum und sieht oft aus, als blase eine Windmaschine ihre Mähne | |
romantisch um den Kopf. Wenn sonst noch etwas zu sehen ist, sind es Blumen | |
im wirbelnden Haar, Schmetterlinge oder Vögel. | |
Gibt man den Begriff „Mann“ ein, so erscheinen Männer verschiedenen Alters. | |
Auch sie können sich in einer etwas wolkigen, unklaren Umgebung befinden, | |
als Attribute aber dienen ihnen Technik oder Architektur. Oft stehen sie | |
beherzt in einer Landschaft, schauen ernst oder blicken nachdenklich in die | |
Ferne. Die Frau dagegen kennt nur einen Gesichtsausdruck: den leeren. | |
## Männer mit Betätigungsfeld | |
Das entspricht dem, was [2][die Filmemacherin Nina Menkes in ihrem Film | |
„Brainwashed“] über die visuelle Darstellung von Frauen und Männer in | |
Hollywoodfilmen zeigt. Sie hat hochwertige Hollywoodproduktionen der 1940er | |
Jahre bis zu aktuellen analysiert. Was man dort sieht: Männer mit einem | |
Betätigungsfeld, verankert in der Welt als Akteure, als Subjekte. Die Frau | |
hat oft einen unklaren, neutralen Hintergrund, sie handelt nicht, die | |
Konzentration liegt auf ihrem Äußeren. So schwebt sie quasi im Raum oder | |
liegt ansprechend herum – eine Projektionsfläche. | |
Der Film von Nina Menkes ist deshalb so sehenswert, weil er sichtbar macht, | |
was wir seit Jahrzehnten sehen, ohne es wahrzunehmen. Und wie wir den | |
männlichen Blick internalisiert haben. Nicht einmal Sofia Coppola ist davor | |
sicher. Sogar sie rutscht in die tradierte Bildsprache, wenn sie in „Lost | |
in Translation“ im Vorspann von Scarlett Johansson nur den Po im | |
transparenten Schlüpfer zeigt und anschließend Bill Murrays Kopf im Taxi, | |
wie er durch die Stadt gleitet. | |
Nun haben wir mit der KI ein Tool, das die verrücktesten Ideen | |
visualisieren kann. Wenn man den führenden Köpfen des Silicon Valley | |
glaubt, wird KI die Menschheit verbessern und nie geahnte Möglichkeiten der | |
Problemlösung schaffen. Nur das Rollenverständnis dieser Welt scheint | |
stecken geblieben zu sein, in einem Sci-fi-Groschenroman oder einem | |
Computerspiel mit markigen Männern und kurvigen Frauen. Obendrein erzeugt | |
Midjourney, sofern man keine weiteren Angaben zur Ethnie macht, [3][nahezu | |
ausschließlich weiße Personen], so meine Erfahrung. Ist unsere Realität | |
bereits männlich und weiß dominiert, so ist die der KI noch weißer, noch | |
männlicher. | |
[4][Eine Studie von Bloomberg zum Generator Stable Diffusion] vom Juni 2023 | |
zeigt Folgendes: Frauen haben kaum lukrative Jobs oder bekleiden | |
Machtpositionen. Im Test wurden beim Begriff „judge“ 3 Prozent Frauen | |
generiert, während in der echten Welt 34 Prozent der US-Richter Frauen | |
sind. „Doctors“ in den USA sind zu 40 Prozent weiblich, in der Welt von | |
Stable Diffusion sind es aber nur 7 Prozent. Hier waren Frauen insgesamt | |
nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in | |
schlecht bezahlten Berufen überrepräsentiert. Ergebnis: Als schwarze Frau | |
brät man Burger oder macht sauber. | |
## Stereotypisierte Gegenwart | |
Praktisch keine Rolle spielen Frauen ab Mitte 40. Während Männer bis zum | |
Greisenalter dargestellt werden, ist die Frau so gut wie immer unter 35. | |
„Fuckable“ nennt man das. | |
Pflegepersonal bei Midjourney und Dreamstudio (Stability AI) ist in meinen | |
Tests zu 100 Prozent weiblich und weiß, dazu in der Regel sexualisiert – | |
die comicartige feuchte Vorstellung einer Krankenschwester statt | |
medizinischer Fachkraft. Bei Dall-e gibt es immerhin männliche Pfleger, und | |
Weiße sind sogar in der Minderheit, ergibt jedenfalls ein Versuch mit | |
jeweils 20 Prompteingaben mit je vier Ergebnissen, also 80 Bildern. | |
Es lässt sich nicht genau nachvollziehen, wie es dazu kommt. Am ehesten | |
fassbar ist es bei Stable Diffusion, dem einzigen Generator, dessen | |
Datengrundlage offengelegt wurde. Es handelt sich um die Datenbank | |
LAION-5B, die aus fünf Milliarden Text-Bild-Paaren besteht. Sie stammen aus | |
Quellen wie Bildagenturen, Websites, Handydaten. Und weil die Datenbank | |
nicht nur die bereits stereotypisierte Gegenwart abbildet, sondern auch die | |
Vergangenheit, verstärken sich gestrige Gesellschaftsbilder. Man hätte dem | |
entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein. | |
Vielleicht liegt es daran, dass in der IT-Industrie nur 12 bis 20 Prozent | |
Frauen arbeiten. Im Jahr 2019 lag der Frauenanteil bei | |
Informatik-Promotionen in den USA bei 20 Prozent, in Deutschland bei 16 | |
Prozent. Dieses Missverhältnis schlägt sich inhaltlich nieder. | |
## Kunst des cleveren Prompts | |
Natürlich kann man durch gezielte Prompts viele Voreinstellungen umgehen. | |
Die Kunst besteht aus einem möglichst cleveren, oft komlexen Prompt. Aber | |
nicht alle merken, dass es hier eine Schieflage gibt und nicht alle haben | |
den Nerv dafür, wenn es eilt und als Ergebnis ein mittelgutes Bild auch | |
reicht. | |
Eine Initiative aus den Niederlanden versucht der Männerdominanz mit einem | |
eigenen Tool entgegenzuwirken. „Missjourney“ ist ein Bildgenerator, der nur | |
Frauenbilder erzeugt, egal welche Features man eingibt. Allerdings ist die | |
Plattform eher ein symbolisches Werkzeug, sie kann mit ihrer Ausstattung an | |
andere Anbieter nicht heranreichen. Sie soll vor allem Bewusstsein | |
schaffen. | |
Wenn wir nicht wollen, dass sich Bilder, von denen wir dachten, wir hätten | |
sie bereits überwunden, in gewaltiger Menge reproduzieren, verfestigen und | |
potenzieren, müssen wir versuchen, die Tech-Firmen zu beeinflussen. Wir | |
müssen sie unermüdlich darauf hinweisen, wie sexistisch und rassistisch | |
ihre Parameter sind. Dafür müssen wir viele sein und Lösungsvorschläge | |
parat haben. Eine gesetzliche Regelung ist in naher Zukunft nicht zu | |
erwarten. Es bleibt wohl nur, ihnen auf die Nerven gehen. | |
Eva Häberle ist seit 25 Jahren freischaffende Fotografin. | |
30 Nov 2023 | |
## LINKS | |
[1] /Klara-Indernach-schreibt-fuer-Express/!5958414 | |
[2] /Sexismus-in-der-Filmbranche/!5831917 | |
[3] /Kuenstliche-rassistische-Bilder/!5923104 | |
[4] https://www.bloomberg.com/graphics/2023-generative-ai-bias/?utm_source=webs… | |
## AUTOREN | |
Eva Häberle | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Fotografie | |
Sexismus | |
Schwerpunkt Rassismus | |
Schwerpunkt Rassismus | |
## ARTIKEL ZUM THEMA | |
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. | |
Künstliche rassistische Bilder: KI zeigt wahres Gesicht der AfD | |
AfD-Politiker Norbert Kleinwächter hetzte mit KI-Bildern gegen Geflüchtete. | |
Die Täuschung zeigt aber auch ungeschminkte Realität – die des Rassismus. | |
Künstliche Intelligenz als Fotogenerator: Falsche Gesichter | |
Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht gibt. | |
Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und Bots. |