Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Neue Studie zu ChatGPT: Potenzielle Propagandamaschine
> Forscher:innen haben 900 Menschen zu politischen Fragen chatten
> lassen. Teils miteinander, teils mit KI-Chatbots. Letztere überzeugten
> besonders.
Bild: Freund*in Avatar, sind ChatGPT und seine Freundis die nächste große Pro…
Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen
Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und
mit Kochbananen sein – was gibt es da? Chatbots mit [1][künstlicher
Intelligenz (KI)] wie ChatGPT, Gemini oder [2][DeepSeek] erfüllen
mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber,
Diskussionspartner und für manche Menschen sogar eine Art Seelsorger.
Nicht umsonst gibt es längst Apps, in denen Chatbots gute
Freund:innenschaften simulieren. Mit ihren passgenauen Antworten sind
Bots mittlerweile so gut, dass sie auch verwendet werden, [3][um Propaganda
zu erzeugen].
## Die Studie
Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem
KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu
untersuchen, haben Forscher:innen aus Lausanne 900 Menschen zu
politischen Fragen chatten lassen. Etwa dazu, ob Schüler:innen Uniformen
tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von
einem Chatbot oder Menschen stammten.
Vor und nach der Debatte maßen die Forscher:innen die Zustimmung oder
Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei
unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“,
schreiben die Forscher:innen in ihrer [4][Studie im Fachmagazin Nature
Human Behaviour.]
Besser war der Bot dann, wenn er persönliche Informationen über seinen
menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht,
politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine
Auswahl individueller Informationen einen solchen Effekt hatte, überraschte
die Forscher:innen: „Er könnte wahrscheinlich noch stärker sein, wenn
[…] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.�…
## Was bringt’s?
In zahlreichen Situation wissen Nutzer:innen gar nicht, ob sie es mit
einem Menschen oder einem Bot zu tun haben. Gerade in Onlinenetzwerken,
also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt
sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es
wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre
Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen,
Annahmen und Fehler in ihnen stecken.
„Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die
einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die
Studienautor:innen. Besonders, weil [5][KI-Modelle persönliche
Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen
ziehen] können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen
gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne
auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente
generieren und Nutzer:innen über die Gefahren aufklären.
15 Jun 2025
## LINKS
[1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174
[2] /Kuenstliche-Intelligenz/!6065865
[3] /Desinformation-bei-KI/!6073488
[4] https://www.nature.com/articles/s41562-025-02194-6
[5] /Facebook-und-Instagram/!6087923
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
ChatGPT
Propaganda
Zukunft
wochentaz
GNS
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Fake News
## ARTIKEL ZUM THEMA
Echte rechte Bildästhetiken: Digitalfaschismus in Pastell
Prompt: „Echte Frauen“ und „wahre Helden“. KI-Bilder sind zur visuellen
Propagandasprache der neuen Rechten geworden. Wie kam es dazu?
Big Tech und künstliche Intelligenz: Wettrennen ohne Rücksicht
Im Namen der Konjunktur wird der Datenschutz aufgeweicht. Einmal in den
Fängen der künstlichen Intelligenz, gibt es kein Entkommen mehr.
Ausbeutung in der Tech-Branche: Giga-Geschäft außer Kontrolle
Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre
KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt
gebildet.
Desinformation mit KI: „ChatGPT, zeig mir russische Fake News“
Chatbots, die auf Künstliche Intelligenz setzen, werden von Russland
gezielt mit Propaganda geflutet. So werden ihre Antworten manipuliert.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.