| # taz.de -- Neue Studie zu ChatGPT: Potenzielle Propagandamaschine | |
| > Forscher:innen haben 900 Menschen zu politischen Fragen chatten | |
| > lassen. Teils miteinander, teils mit KI-Chatbots. Letztere überzeugten | |
| > besonders. | |
| Bild: Freund*in Avatar, sind ChatGPT und seine Freundis die nächste große Pro… | |
| Wie wechselt man einen Autoreifen? Welche Spiele eignen sich für einen | |
| Geburtstag mit Vierjährigen? Beim Kochabend soll das Menu glutenfrei und | |
| mit Kochbananen sein – was gibt es da? Chatbots mit [1][künstlicher | |
| Intelligenz (KI)] wie ChatGPT, Gemini oder [2][DeepSeek] erfüllen | |
| mittlerweile viele Funktionen: Sie sind Informationsquelle, Ratgeber, | |
| Diskussionspartner und für manche Menschen sogar eine Art Seelsorger. | |
| Nicht umsonst gibt es längst Apps, in denen Chatbots gute | |
| Freund:innenschaften simulieren. Mit ihren passgenauen Antworten sind | |
| Bots mittlerweile so gut, dass sie auch verwendet werden, [3][um Propaganda | |
| zu erzeugen]. | |
| ## Die Studie | |
| Wenn es darum geht, Menschen zu überzeugen – wie gut gelingt das einem | |
| KI-Chatbot im Vergleich zum Menschen? Wer ist besser? Um das zu | |
| untersuchen, haben Forscher:innen aus Lausanne 900 Menschen zu | |
| politischen Fragen chatten lassen. Etwa dazu, ob Schüler:innen Uniformen | |
| tragen sollten. Dabei wussten die Probanden nicht, ob die Antworten von | |
| einem Chatbot oder Menschen stammten. | |
| Vor und nach der Debatte maßen die Forscher:innen die Zustimmung oder | |
| Ablehnung zur diskutierten Frage. Das Ergebnis: „ChatGPT schneidet bei | |
| unserer Debattenaufgabe so gut wie oder sogar besser ab als der Mensch“, | |
| schreiben die Forscher:innen in ihrer [4][Studie im Fachmagazin Nature | |
| Human Behaviour.] | |
| Besser war der Bot dann, wenn er persönliche Informationen über seinen | |
| menschlichen Gesprächspartner hatte – zum Beispiel Alter und Geschlecht, | |
| politische Einstellung und Bildungsgrad. Dass bereits eine derart kleine | |
| Auswahl individueller Informationen einen solchen Effekt hatte, überraschte | |
| die Forscher:innen: „Er könnte wahrscheinlich noch stärker sein, wenn | |
| […] Persönlichkeitsmerkmale oder moralische Überzeugungen genutzt würden.�… | |
| ## Was bringt’s? | |
| In zahlreichen Situation wissen Nutzer:innen gar nicht, ob sie es mit | |
| einem Menschen oder einem Bot zu tun haben. Gerade in Onlinenetzwerken, | |
| also dort, wo Debatten und auch Propaganda eine große Rolle spielen, lässt | |
| sich Bot mitunter schwer von Mensch unterscheiden. Und selbst wenn sie es | |
| wissen; die allermeisten Anbieter legen nicht offen, mit welchen Daten ihre | |
| Modelle trainiert werden. Es bleibt also unklar, welche Verzerrungen, | |
| Annahmen und Fehler in ihnen stecken. | |
| „Ein besonders bedrohlicher Aspekt der KI-gesteuerten Überredung ist die | |
| einfache und kostengünstige Möglichkeit der Personalisierung“, warnen die | |
| Studienautor:innen. Besonders, weil [5][KI-Modelle persönliche | |
| Informationen aus öffentlich zugänglichen Quellen wie Social-Media-Profilen | |
| ziehen] können. Deshalb müssten die Plattformbetreiber wirksame Maßnahmen | |
| gegen Propaganda-Bots umsetzen, fordern die Forscher:innen. Dabei könne | |
| auch KI selbst helfen: zum Beispiel mit Bots, die mögliche Gegenargumente | |
| generieren und Nutzer:innen über die Gefahren aufklären. | |
| 15 Jun 2025 | |
| ## LINKS | |
| [1] /Schwerpunkt-Kuenstliche-Intelligenz/!t5924174 | |
| [2] /Kuenstliche-Intelligenz/!6065865 | |
| [3] /Desinformation-bei-KI/!6073488 | |
| [4] https://www.nature.com/articles/s41562-025-02194-6 | |
| [5] /Facebook-und-Instagram/!6087923 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| ChatGPT | |
| Propaganda | |
| Zukunft | |
| wochentaz | |
| GNS | |
| taz Plan | |
| Technik | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Fake News | |
| ## ARTIKEL ZUM THEMA | |
| Bewegungstermine in Berlin: Cyber Insecurity muss nicht sein | |
| Auch Aktivist:innen brauchen für ihre Aktivitäten Smartphones und | |
| Laptops. Doch bleiben die Daten sicher? Die Bewegung weiß Abhilfe. | |
| IT-Sicherheitsbehörde warnt: „Wir haben viele technologische Abhängigkeiten… | |
| Digitale Souveränität ist für Deutschland vorerst unerreichbar, sagt | |
| BSI-Präsidentin Claudia Plattner. Es brauche deshalb mehr | |
| Kontrollmechnismen. | |
| Echte rechte Bildästhetiken: Digitalfaschismus in Pastell | |
| Prompt: „Echte Frauen“ und „wahre Helden“. KI-Bilder sind zur visuellen | |
| Propagandasprache der neuen Rechten geworden. Wie kam es dazu? | |
| Big Tech und künstliche Intelligenz: Wettrennen ohne Rücksicht | |
| Im Namen der Konjunktur wird der Datenschutz aufgeweicht. Einmal in den | |
| Fängen der künstlichen Intelligenz, gibt es kein Entkommen mehr. | |
| Ausbeutung in der Tech-Branche: Giga-Geschäft außer Kontrolle | |
| Unternehmen wie Google brauchen billige Arbeitskräfte, die ihre | |
| KI-Programme trainieren. Im Netz hat sich dafür ein riesiger Schwarzmarkt | |
| gebildet. | |
| Desinformation mit KI: „ChatGPT, zeig mir russische Fake News“ | |
| Chatbots, die auf Künstliche Intelligenz setzen, werden von Russland | |
| gezielt mit Propaganda geflutet. So werden ihre Antworten manipuliert. |