Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI unter Faschismusverdacht: Die Papageien, die wir riefen
> Übles wird nachgeplappert: KI hat nicht nur ein Kreativitäts-, sondern
> auch ein potenzielles Faschismusproblem, analysiert Rainer Mühlhoff in
> einem Buch der Reclam-Reihe „Was bedeutet das alles?“.
Bild: Flüche, Sexismen, Rassismus: Der stochastische Papagei wiederholt, was e…
Ein britischer Tierpark hat ein Problem: Die Papageien fluchen. Sie
beleidigen. Sie verwenden verletzende Sprache. Kurzum: Sie geben von sich,
was sie oft gehört haben, und das ist viel Übles. Der Lincolnshire Wildlife
Park ist eine nationale Auffangstation. Die Menschen geben dort Vögel ab,
weil sie die Rufe nicht mehr ertragen können, die ihre gefiederten
Mitbewohner von ihnen gelernt haben.
„Stochastische Papageien“ – diesen Ausdruck prägte die Computerlinguistin
Emily Bender gemeinsam mit drei Kolleginnen, um große Sprachmodelle zu
beschreiben. Wiederholung nach Wahrscheinlichkeit ist das Geheimnis
„künstlicher Intelligenz“. Und auch ihr Problem: Large Language Models
erzeugen Gleichklang. Sie bilden nicht den klügsten Satz, sondern
reproduzieren die Muster, die oft genug wiederholt wurden.
Der so entstehende Mangel an sprachlicher Kreativität ist nicht das
Schlimmste. Sprachmodelle werden zu groß, lautet die These von Bender und
ihren Kolleginnen. Nicht nur die ökologischen Kosten sind enorm. Das
Training der KI etwa verbraucht Unmengen an Strom. „Too big“ und damit
unkontrollierbar sind auch die Daten, von denen die stochastischen
Papageien sich ernähren. Ihr „Futter“ enthält außerdem hohe Anteile von
Rassismus, Sexismus und Antisemitismus.
Bei diesen Gefahren von KI setzt das neue Buch von Rainer Mühlhoff an, das
bei Reclam in der Reihe „Was bedeutet das alles?“ erschienen ist. Die KI
als solche ist nicht faschistisch, schreibt Mühlhoff. Aber sie habe
strukturelle Eigenschaften, die „den Rechtsstaat und die freiheitliche
demokratische Ordnung“ schwächten. Denn für die Verbreitung von
Desinformation und [1][Propaganda] ist sie perfekt geeignet.
Was es heißt, wenn KI-Systeme zum Einsatz kommen, um gesellschaftliche
Prozesse zu strukturieren und zu verbessern, demonstriert Mühlhoff in einem
Gedankenexperiment, der Fiktion einer erfahrungsbasierten Arbeitsweise nach
dem Muster einer KI: An die Stelle der üblichen Einzelfallprüfungen nach
definierten Verfahren träte im Behördenalltag dann das Bauchgefühl der
Bearbeiterinnen und Bearbeiter – ein im Job erarbeitetes Gespür für
richtige Angaben, aber auch für Tricks oder Schummeleien. Auch die
Bauchgefühle würden in diesem Szenario evaluiert. Doch das geschähe weder
durch umfängliche Prüfungen noch durch ausgewählte Stichproben. Maßstab
wäre vielmehr das Ausbleiben von Kritik: Wer sich nicht beschwert, hat auch
keine Einwände gegen eine behördliche Entscheidung – so die Hypothese. Das
Problem: Wer geringe Ressourcen hat, wird sich seltener wehren. So wird die
„beste Wette auf einzelne Fälle“, als die sich das Bauchgefühl verstehen
lässt, schnell zum Albtraum.
Mühlhoff ist Philosoph und Mathematiker. Neben seiner Auseinandersetzung
mit den gesellschaftlichen Auswirkungen des Einsatzes von KI analysiert er
die Vorstellungen, die sich die Gesellschaft über KI macht. Damit steht er
in der Tradition philosophischer Ideologiekritik. Ihn interessieren die
populären Bilder, die Elemente einer sich lange abzeichnenden
„Tech-Ideologie“. Laut Mühlhoff befinden wir uns schon seit 20 Jahren in
einer dritten Phase der [2][KI-Euphorie] – mit Vorgeschichten in den 1960er
und 1980er Jahren.
In solchen „KI-Sommern“ ist die Stimmung überhitzt. Technologiekonzerne
hoffen auf die „Artificial General Intelligence“, kurz: AGI. In spätestens
20 Jahren, so die Prophezeiung, sei es so weit. Mühlhoff ist da
skeptischer. Denn auch solche Prognosen sind nicht neu. Eine Studie des
Machine Intelligence Research Institute legt nahe: Wer innerhalb der
letzten 60 Jahre an die Machbarkeit einer AGI glaubte, nahm jeweils an,
dass sie in 15 bis 25 Jahren Realität werde.
## Ein Gefühl der Hilflosigkeit
Wenn Mühlhoffs Essay trotzdem warnende Töne anschlägt, dann aus politischen
Gründen. Daten, so schreibt er, seien heute „die knappste und strategisch
wichtigste Ressource der KI-Industrie“. Sie sollen in großen Mengen zur
Verfügung stehen und die KI-Konzerne möglichst wenig kosten. Den Preis
bezahlen andere: etwa die [3][Künstlerinnen und Künstler], deren Arbeiten
entwertet werden, wenn sie an eine KI verfüttert werden, die mit
massenhafter Produktion die Märkte zuschütten kann.
In den Tech-Ideologien, die im Buch profiliert werden, spielen solche
Erwägungen kaum eine Rolle. Nicht weil „Moral“ insgesamt nicht hoch im Kurs
stünde. Im Gegenteil: Nur sind die „moralischen“ Überlegungen der
Technophilen anders ausgerichtet. Wenn die künstliche Superintelligenz
demnächst komme, so lautet ein Argument, dann müssen wir unser Handeln
jetzt schon darauf einstellen: Statt auf die Bedürfnisse der Menschen, die
Gefahren des Klimawandels oder der sozialen Ungleichheit zu reagieren,
gelte es vielmehr, die bestmöglichen Startbedingungen für die erhoffte neue
Intelligenzform bereitzustellen.
Der ideologische Mix hinter den Staats- und Gesellschaftsvorstellungen der
Tech-Eliten reicht vom Cyberlibertarismus über rassistische und sexistische
Troll-Subkulturen bis zur intellektuellen Strömung der „Dunklen
Aufklärung“. Faschismus setzt Mühlhoff als Kategorie ein, um das
Zusammenwirken dieser Bewegungen zu erläutern: Diese verbinde eine
antidemokratische Stoßrichtung und Gewaltbereitschaft.
Was tun? Das Gefühl der Hilflosigkeit ist Teil des Problems. Wir alle
liefern der KI unsere Daten, betont Mühlhoff. Es ist wie im Lincolnshire
Wildlife Park: Wer von den Papageien weniger Flüche hören will, muss selbst
weniger fluchen. Aber damit ist es nicht getan. Mühlhoff fordert, die KI zu
thematisieren, anstatt sich von ihr thematisieren zu lassen. „Anders über
KI-Technologie sprechen“ ist eine von zwei Handlungsempfehlungen, mit denen
das Buch schließt. Antidemokratische Kräfte zu isolieren, ist die andere.
Was auf den 160 Seiten hingegen nur angedeutet wird, sind die ökonomischen
Strukturen, die solche Kräfte erst ermöglichen und die hart gegen
Kritikerinnen vorgehen. Timnit Gebru und Margaret Mitchell, zwei
Autorinnen, die mit Emily Bender an dem Aufsatz über „stochastische
Papageien“ gearbeitet haben, wurden von Google entlassen. Unerkannt zu
bleiben, ist ihnen nicht gelungen. Margaret Mitchell weist darauf hin,
indem sie nun unter subversivem Pseudonym schreibt: Shmargaret Shmitchell.
28 Sep 2025
## LINKS
[1] /Parlament-in-Albanien/!6114522
[2] /Bluehendes-Geschaeft-mit-KI-Musik/!6111209
[3] /Wie-Cloudflare-KI-Bots-aufhalten-will/!6111259
## AUTOREN
Hendrikje Schauer
## TAGS
Politisches Buch
Sachbuch
Schwerpunkt Künstliche Intelligenz
Faschismus
Big Tech
Reden wir darüber
Social-Auswahl
EU-Kommission
Kolumne Feed Interrupted
Kulturpolitik
Ideologiekritik
## ARTIKEL ZUM THEMA
Neue KI-Strategie: EU will bei Künstlicher Intelligenz aufs Tempo drücken
Mehr KI und vor allem mehr europäische KI will die EU-Kommission in
Unternehmen sehen. Der Branchenverband begrüßt das, erwartet aber mehr als
Worte.
Künstliche Intelligenz: Schreiben unter Verdacht
Seht her, hier wird noch geschrieben! Wo Texte zunehmend hybrid entstehen,
muss die Geschichte vom „reinen“ Schreiben besonders laut erzählt werden.
Polykrisen: Die Kultur im Zeitalter der goldenen Toilette
Wie steht es um Kunst und Kultur in einer Welt der Polykrise und nach dem
internationalen Aufstieg einer karnevalesken Rechten? Eine
Bestandsaufnahme.
Neurowissenschaftlerin: „Hirnprozesse führen dazu, dass wir entmenschlichen�…
Leor Zmigrod hat ideologisches Denken untersucht. Sie erklärt, was
Hirnscans zeigen, wie Dschihadisten ticken und warum Social Media extremes
Denken befeuert.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.