Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sond…
> Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie
> halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das
> Problem verfehlt.
Bild: KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erz…
Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT
umschreiben wir mangels besserer Alternativen mit Begriffen wie
[1][Intelligenz oder gar Bewusstsein]. Wenn Software aber erfundene Fakten
präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und
Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre
popularisiert.
## Die Studie
[2][Ein kürzlich erschienenes Paper] warnt nun vor dieser Begrifflichkeit
und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von
KI-Chatbots. Die [3][Rede vom Halluzinieren] suggeriere, dass sie Fakten
wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen
nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen
Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr,
überzeugend zu klingen, als präzise zu sein. Darum postulieren die
Forschenden: [4][ChatGPT] ist Bullshit.
Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was
gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge,
die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit
schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften
Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt
Aussagen zu revidieren, werden Fakten erfunden.
Das Forschungsteam untersuchte das Design der [5][Chatbots] vor diesem
Hintergrund. Die Programme funktionieren auf der Basis von Large Language
Models, welche mittels immenser Textmengen statistische Modelle von Sprache
anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist
keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots
produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen
dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von
Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig
wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von
Bots wie ChatGPT.
## Was bringt’s?
Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere
Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit
beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem
Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der
Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie
weist darauf hin und schlägt vor, die kognitiven Kompetenzen der
KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss
kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche
Hirnleistung ersetzt.
Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch
keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist
Bullshit halt oft gut genug.
10 Jul 2024
## LINKS
[1] /Europarat-verhandelt-Abkommen/!5941771
[2] https://link.springer.com/article/10.1007/s10676-024-09775-5
[3] /ChatGPT-Identitaetsklau/!6006995
[4] /Kuenstliche-Intelligenz/!5948779
[5] /Chatbots-enttarnen/!6002321
## AUTOREN
Nathan Pulver
## TAGS
wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
Fake News
Schwerpunkt Künstliche Intelligenz
künstliche Intelligenz
## ARTIKEL ZUM THEMA
ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
Künstliche Intelligenz: ChatGPT wird dümmer
Forscher*innen der Stanford Universität und der UC Berkeley haben
Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt.
Künstliche Intelligenz via ChatGPT: Alles verändert?
Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen
Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.