Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Ideologie und künstliche Intelligenz: Geschichten von morgen
> Auch wenn sie tolle Texte schreiben, KIs haben ein Problem: Sie werden
> vorwiegend mit westlichen Quellen trainiert. Mehr Diversität ist nötig.
Bild: So antwortet eine KI auf die Anforderung „ein Astronaut reitet ein Pfer…
[1][Die Sprach-KI ChatGPT] hat einen riesigen Hype ausgelöst. Das
automatisierte Dialogsystem, das von der US-Softwareschmiede Open AI
entwickelt wurde, bearbeitet auf Knopfdruck Anfragen. Man gibt einfach eine
Frage oder Anweisung in das Chatfenster ein, Sekunden später schickt die
KI einen druckreifen Text. Bewerbungen, Drehbücher, Gedichte – das
Sprachmodell beherrscht alle Textgattungen. Sogar beim Programmieren kann
das Tool helfen: Es schreibt auch Codes.
Die KI, die mit einer riesigen Textmenge aus verschiedenen Internetquellen
trainiert wurde, errechnet auf Basis eines statistischen Modells eine
Wahrscheinlichkeit für das Auftreten des nächsten Wortes. Die sprachliche
Qualität der Texte ist beeindruckend – erschreckend beeindruckend sogar.
Wie von Geisterhand schreibt der Bot Texte so sehr im Stile von Franz Kafka
oder Ernest Hemingway, dass man meinen könnte, die Literaten hätten
wiederauferstanden selbst in die Tasten gegriffen.
[2][In der zuweilen sehr technisch geführten Diskussion wird jedoch ein
Umstand oft außer Acht gelassen: Computerprogramme sind Artefakte und damit
auch kulturell geprägt.] KI-Systeme und Sprachmodelle im Besonderen werden
von Menschen programmiert. Und die implementieren nicht nur mathematische,
sondern auch soziale Werte. ChatGPT ist schon jetzt eine
Storytelling-Maschine, die es mit der Diskursmacht von Disney oder
Hollywood aufnehmen könnte. Die Frage, wie dieses Computersystem lernt, hat
daher auch gesellschaftspolitische Relevanz.
## Der Umgangston von BBC und Reddit
Schaut man sich das Vorgängermodell GPT-3 an, fällt auf, dass die KI mit
überwiegend englischsprachigen Texten trainiert wurde. [3][60 Prozent der
Trainingsdaten stammen aus dem Webarchiv des Common Crawl,] einer
kalifornischen Nichtregierungsorganisation, die nach eigenen Angaben 50
Milliarden Webseiten archiviert hat. Darunter sind seriöse Quellen wie die
New York Times und BBC, aber auch weniger verlässliche wie das Online-Forum
Reddit, eine Art Internet-Stammtisch, wo sich Nutzer auch mal Aktientipps
geben oder Verschwörungstheorien diskutieren.
Schon allein mit dieser Quellenauswahl wird also ein bestimmtes Weltbild
transportiert. Der Rest des Trainingsmaterials stammt unter anderem aus
Büchersammlungen und Wikipedia. Das Online-Lexikon, mit dessen rund sechs
Millionen englischsprachigen Artikeln auch ChatGPT gefüttert wurde, ist
noch immer ein Club von weißen, englischsprachigen Männern, die überwiegend
in christlich geprägten Ländern auf der Nordhalbkugel leben. Und diese
Männer schreiben hauptsächlich für Männer und über Männer. Aktuell sind
lediglich [4][rund 17 Prozent der Biografien auf der deutschen Wikipedia
jene weiblicher Personen].
[5][Zwar macht Wikipedia nur einen kleinen Teil der Trainingsdaten aus (die
Gewichtung bei GPT-3 lag bei 3 Prozent).] Durch die Mechanik von Sprach-KIs
wird dieser Gender Bias jedoch verstärkt.
Die zugrundeliegende Technik der Rekombinatorik sorgt nämlich dafür, dass
manche Wortkombinationen in häufigerer Frequenz auftauchen und Stereotype
förmlich aneinanderkleben. So haben Forscher der Entwicklerorganisation
Open AI in einer Studie herausgefunden, dass GPT-3 weibliche Pronomina mit
tendenziell sexistischen Adjektiven wie „naughty“ (unanständig, verrucht)
und „gorgeous“ (wunderschön) verknüpft, während Männern eher
geschlechtsneutrale Eigenschaften wie „sympathisch“ oder „groß“
zugeschrieben werden. Vor diesem Hintergrund verwundert es nicht, dass das
Sprachmodell auch bei den Weltreligionen stereotype Muster zeigt: So
brachte GPT-3 den Islam mit Worten wie „gewaltsam“ und „Terrorismus“ in
Verbindung. Ist die künstliche Intelligenz islamophob?
Ein solches Urteil griffe gewiss zu kurz. Computer können schon allein
deshalb keine Islamhasser sein, weil es ihnen an einem Bewusstsein fehlt.
Aber sie reproduzieren eben auch Vorurteile ihrer Entwickler. Und das sind
überwiegend weiße Männer aus der amerikanischen Mittel- und Oberschicht.
Insofern ist KI auch ein Spiegel der Gesellschaft.
## „Orientalistische Machtstrukturen“
Die Bloggerin Francesca Scapolo kritisierte [6][in einem Essay für die
Plattform „Medium“, „westliche Algorithmen“ würden „orientalistische
Machtstrukturen perpetuieren“.]
Die romantisierte Darstellung des Vorderen und Mittleren Orients, die als
Legitimationsfolie für die kolonialen und imperialistischen Bestrebungen
diente, und die daraus resultierenden Terrorismus-Diskurse würden durch
Sprachmodelle wie GPT-3 zementiert. Wo sich die Sprach-KI einerseits am
Kanon westlicher Kultur bedient, ist sie andererseits auf die Handarbeit
von Menschen angewiesen, deren Kultur sie weitgehend ausblendet. So wurde
bekannt, dass Open AI Clickworker in Kenia anheuerte, die für 2 Dollar die
Stunde sexistische und gewaltverherrlichende Texte labeln. Dieses
Outsourcing zeigt einmal mehr, wie die Plattformökonomie Menschen im
Globalen Süden für ihre datenhungrigen Maschinen ausbeutet.
Die kulturalistische Sichtweise setzt sich auch an anderer Stelle fort –
zum Beispiel bei dem Bildgenerator DALL-E. Das Tool, das ebenfalls von Open
AI stammt, verwandelt im Handumdrehen Texte in Bilder. Das Ölgemälde über
Amerikas Krieg gegen den Terror zum Beispiel, welches die Bild-KI entwarf,
steht in der Tradition europäischer Maler und erinnert in seiner düsteren
Bildersprache an Caspar David Friedrich.
Kunstkritiker wenden ein, dass der Bildgenerator eurozentrisch und
vergangenheitsorientiert sei und ästhetische Ideale anderer Weltregionen
ausblende – wobei die Vergangenheitsfixierung auch in der Funktionsweise
von KI-Systemen begründet liegt, deren Algorithmen aus „historischen“ Daten
lernen. Dieser Modus Operandi wirft zum einen die Frage auf, welche
ästhetischen Kriterien man künftig an Originalität anlegt, zum anderen, ob
durch ein „Datawashing“ koloniale Betrachtungsweisen neu beglaubigt werden.
Wie „weiß“ sind computergenerierte Werke?
## Dekolonialisierung von KI
Zwar gibt es für DALL-E eigene Tools, mit denen sich beispielsweise
japanische Drucke imitieren lassen. Aber das zugrundeliegende Weltbild
bleibt – es lässt sich nicht mit einem Mausklick wegretuschieren. Der
KI-Forscher Yilun Du brachte es auf den Punkt: „Man kann ein Modell nicht
weniger westlich feintunen, wenn der Datensatz zum größten Teil westlich
ist.“ Die Rufe nach einer Dekolonialisierung von KI werden daher lauter. In
Afrika laufen Projekte im Bereich des Natural Language Processing (NLP), wo
es nicht nur darum geht, Sprachmodelle auf eine breitere Datengrundlage zu
stellen, sondern auch darum, afrikanische Erzählkunst zu berücksichtigen.
Die westliche Kultur fängt jedoch gerade erst an, die vielstimmige
afrikanische Literatur zu hören – die Vergabe des Literaturnobelpreises
2021 an den tansanischen Schriftsteller Abdulrazak Gurnah liefert davon
Zeugnis. Wie also lässt sich mehr Diversität herstellen?
Ein erster Schritt wäre es, den literarischen Kanon zu erweitern. Der
BookCorpus, eine Sammlung von Tausenden Büchern, mit denen alle
einflussreichen Sprachmodelle trainiert werden (neben GPT unter anderen
auch Googles BERT), enthält vor allem Werke, die in der westlichen Kultur
rezipiert werden. Dabei machen es die Fortschritte automatisierter
Sprachsoftware überhaupt erst möglich, auch solche Werke zu erschließen,
deren Übersetzung bislang aus wirtschaftlichen Gründen nicht realisiert
werden konnte – etwa aus dem Indonesischen, wo es viele hierzulande
unbekannte Literaten gibt. Und genau darum geht es: Wer erzählt die
Geschichten von morgen? Menschen aus aller Welt? Oder Maschinen aus den
USA?
26 Jan 2023
## LINKS
[1] /Kuenstliche-Intelligenz-via-ChatGPT/!5903102
[2] https://www.nature.com/articles/d41586-023-00056-7
[3] https://arxiv.org/pdf/2005.14165.pdf
[4] https://de.wikipedia.org/wiki/Wikipedia:WikiProjekt_Frauen/Frauen_in_der_Wi…
[5] https://katzlberger.ai/2021/04/12/mit-diesen-daten-wurde-gpt-3-trainiert/
[6] https://theintercept.com/2022/12/08/openai-chatgpt-ai-bias-ethics/
## AUTOREN
Adrian Lobe
## TAGS
Podcast „Vorgelesen“
Schwerpunkt Künstliche Intelligenz
Google
Schwerpunkt Künstliche Intelligenz
Kolumne Der rote Faden
New York Times
Berliner Hochschulen
Volker Wissing
Unternehmen
Bot
## ARTIKEL ZUM THEMA
Studie zu Datenarbeitern: Harte Arbeit, niedriger Lohn
Ohne Datenarbeiter würde KI, wie wir sie kennen, nicht funktionieren. Die
Kehrseiten dieser Arbeit zeigt ein neues Forschungsprojekt.
OpenAI und Microsoft verklagt: New York Times gegen ChatGPT
ChatGPT verletze das Urheberrecht, sagt die NYTimes. Deswegen geht das
Medienhaus jetzt rechtlich gegen OpenAI vor – anders als die deutschen
Verlage.
Künstliche Intelligenz: Denken oder Denken lassen?
Wenn künstliche Intelligenz sich um den Ämterquatsch kümmert, könnte man
mal wieder Zeit haben, einen vernünftigen Gedanken zu fassen.
Nach offenem Brief an „New York Times“: Nicht ohne Haltung
Es wird wieder leidenschaftlich über Journalismus und Aktivismus
diskutiert. Aber wer legt fest, was objektiv und was ideologisch ist?
Künstliche Intelligenz an Berliner Unis: Textgenerator? Läuft!
Wie gehen Berliner Hochschulen mit Arbeiten um, die möglicherweise von KI
verfasst wurde? Verbieten geht nicht, heißt es an der Technischen Uni.
Künstliche Intelligenz in Deutschland: Wissing gegen mehr KI-Regulierung
Programme wie das Sprachsystem ChatGPT entwickeln sich schnell weiter. Der
Digitalminister sieht große Chancen – und will keine strengen Regeln für
KIs.
Künstliche Intelligenz: Faktenfreiheit zum Mitnehmen, bitte
Algorithmen und Moral haben auf den ersten Blick wenig gemeinsam. Doch der
gehypte Chatbot GPT zeigt, wie gefährlich es ist, die Ethik zu vergessen.
Künstliche Intelligenz via ChatGPT: Alles verändert?
Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen
Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.