# taz.de -- Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sond… | |
> Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie | |
> halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das | |
> Problem verfehlt. | |
Bild: KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erz… | |
Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT | |
umschreiben wir mangels besserer Alternativen mit Begriffen wie | |
[1][Intelligenz oder gar Bewusstsein]. Wenn Software aber erfundene Fakten | |
präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und | |
Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre | |
popularisiert. | |
## Die Studie | |
[2][Ein kürzlich erschienenes Paper] warnt nun vor dieser Begrifflichkeit | |
und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von | |
KI-Chatbots. Die [3][Rede vom Halluzinieren] suggeriere, dass sie Fakten | |
wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen | |
nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen | |
Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, | |
überzeugend zu klingen, als präzise zu sein. Darum postulieren die | |
Forschenden: [4][ChatGPT] ist Bullshit. | |
Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was | |
gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge, | |
die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit | |
schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften | |
Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt | |
Aussagen zu revidieren, werden Fakten erfunden. | |
Das Forschungsteam untersuchte das Design der [5][Chatbots] vor diesem | |
Hintergrund. Die Programme funktionieren auf der Basis von Large Language | |
Models, welche mittels immenser Textmengen statistische Modelle von Sprache | |
anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist | |
keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots | |
produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen | |
dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von | |
Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig | |
wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von | |
Bots wie ChatGPT. | |
## Was bringt’s? | |
Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere | |
Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit | |
beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem | |
Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der | |
Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie | |
weist darauf hin und schlägt vor, die kognitiven Kompetenzen der | |
KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss | |
kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche | |
Hirnleistung ersetzt. | |
Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch | |
keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist | |
Bullshit halt oft gut genug. | |
10 Jul 2024 | |
## LINKS | |
[1] /Europarat-verhandelt-Abkommen/!5941771 | |
[2] https://link.springer.com/article/10.1007/s10676-024-09775-5 | |
[3] /ChatGPT-Identitaetsklau/!6006995 | |
[4] /Kuenstliche-Intelligenz/!5948779 | |
[5] /Chatbots-enttarnen/!6002321 | |
## AUTOREN | |
Nathan Pulver | |
## TAGS | |
wochentaz | |
Zukunft | |
Schwerpunkt Künstliche Intelligenz | |
Fake News | |
Schwerpunkt Künstliche Intelligenz | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt | |
ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. | |
Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist. | |
Künstliche Intelligenz: ChatGPT wird dümmer | |
Forscher*innen der Stanford Universität und der UC Berkeley haben | |
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt. | |
Künstliche Intelligenz via ChatGPT: Alles verändert? | |
Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen | |
Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich. |