| # taz.de -- Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sond… | |
| > Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie | |
| > halluzinieren. Eine neue Studie untersucht, warum dieser Begriff das | |
| > Problem verfehlt. | |
| Bild: KI-Chatbots – wer blickt da noch durch, aber wenn sie falsche Dinge erz… | |
| Neue Technologie erfordert neue Sprache. KI-Chatbots wie ChatGPT | |
| umschreiben wir mangels besserer Alternativen mit Begriffen wie | |
| [1][Intelligenz oder gar Bewusstsein]. Wenn Software aber erfundene Fakten | |
| präsentiert, nennen wir das eine Halluzination. Tech-Firmen wie Meta und | |
| Google haben diese Bezeichnung während des KI-Booms der vergangenen Jahre | |
| popularisiert. | |
| ## Die Studie | |
| [2][Ein kürzlich erschienenes Paper] warnt nun vor dieser Begrifflichkeit | |
| und ihren Implikationen. Sie schaffe ein falsches Bild der Kompetenzen von | |
| KI-Chatbots. Die [3][Rede vom Halluzinieren] suggeriere, dass sie Fakten | |
| wahrnehmen würden, diese aber falsch interpretierten. Doch die Maschinen | |
| nehmen nicht wahr. Sie simulieren, ohne Bezug zur außersprachlichen | |
| Wirklichkeit, das menschliche Sprechen. So ist ihr Ziel vielmehr, | |
| überzeugend zu klingen, als präzise zu sein. Darum postulieren die | |
| Forschenden: [4][ChatGPT] ist Bullshit. | |
| Bullshit ist nach dem Philosophen Harry G. Frankfurt alles, was | |
| gleichgültig gegenüber der Wahrheit geäußert wird. Im Gegensatz zur Lüge, | |
| die absichtlich einen Sachverhalt verdecken soll, ist Bullshit die Wahrheit | |
| schlicht egal. Die Verwendung von gut klingenden Wörtern und floskelhaften | |
| Formulierungen vermittelt etwa Fachkenntnis, wo keine ist. Und statt | |
| Aussagen zu revidieren, werden Fakten erfunden. | |
| Das Forschungsteam untersuchte das Design der [5][Chatbots] vor diesem | |
| Hintergrund. Die Programme funktionieren auf der Basis von Large Language | |
| Models, welche mittels immenser Textmengen statistische Modelle von Sprache | |
| anfertigen. Sie berechnen wahrscheinliche Abfolgen von Wörtern. Hierfür ist | |
| keine Kenntnis ihrer Bedeutung nötig. Sie ist gar nicht vorhanden. Die Bots | |
| produzieren zwar überzeugend und fundiert klingende Äußerungen, benötigen | |
| dafür aber weder logisches Denkvermögen, noch einen Zugriff auf die von | |
| Menschen geteilte Realität. Ihre Aussagen sind, wenn überhaupt, zufällig | |
| wahr. Fehlaussagen und erfundene Fakten sind daher fester Bestandteil von | |
| Bots wie ChatGPT. | |
| ## Was bringt’s? | |
| Die Sprache, die wir zur Beschreibung von KI verwenden, beeinflusst unsere | |
| Wahrnehmung von ihr. PolitikerInnen, InvestorInnen und die Öffentlichkeit | |
| beurteilen den Einsatz der neuen Technologie nicht mit sachkundigem | |
| Verständnis der Programme. Breitenwirksame Bilder wie die Metapher der | |
| Halluzination schaffen deshalb folgenschwere Missverständnisse. Die Studie | |
| weist darauf hin und schlägt vor, die kognitiven Kompetenzen der | |
| KI-Chatbots vorsichtiger zu formulieren. Ihr Umgang mit Fakten muss | |
| kritischer begutachtet werden, wenn die Maschine mehr und mehr menschliche | |
| Hirnleistung ersetzt. | |
| Auch AnwenderInnen sind beim Umgang mit Fakten gefragt. ChatGPT ist noch | |
| keine zwei Jahre alt und arbeitet ganz erfolgreich. Dem Menschen ist | |
| Bullshit halt oft gut genug. | |
| 10 Jul 2024 | |
| ## LINKS | |
| [1] /Europarat-verhandelt-Abkommen/!5941771 | |
| [2] https://link.springer.com/article/10.1007/s10676-024-09775-5 | |
| [3] /ChatGPT-Identitaetsklau/!6006995 | |
| [4] /Kuenstliche-Intelligenz/!5948779 | |
| [5] /Chatbots-enttarnen/!6002321 | |
| ## AUTOREN | |
| Nathan Pulver | |
| ## TAGS | |
| wochentaz | |
| Zukunft | |
| Schwerpunkt Künstliche Intelligenz | |
| Fake News | |
| Schwerpunkt Künstliche Intelligenz | |
| künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt | |
| ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. | |
| Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist. | |
| Künstliche Intelligenz: ChatGPT wird dümmer | |
| Forscher*innen der Stanford Universität und der UC Berkeley haben | |
| Antworten von ChatGPT untersucht. Ihre Erkenntnis: Das System schwächelt. | |
| Künstliche Intelligenz via ChatGPT: Alles verändert? | |
| Eine KI, die für uns Texte schreibt? Klingt toll. Und ist inzwischen | |
| Wirklichkeit. ChatGPT ist lustig, eloquent – und gefährlich. |