| # taz.de -- Falschaussagen der KI: Rufschädigung durch ChatGPT | |
| > Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
| > fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
| Bild: Wie, dieses Schild nicht? | |
| Melbourne afp | Den Entwicklern der auf künstlicher Intelligenz (KI) | |
| [1][beruhenden Anwendung ChatGPT] droht erstmalig eine Verleumdungsklage. | |
| Er sei „entsetzt“ über die komplett falschen Informationen gewesen, die der | |
| Chatbot über ihn verbreite, sagte der Bürgermeister der australischen | |
| Kleinstadt Hepburn Shire, Brian Hood, am Donnerstag dem Rundfunksender ABC. | |
| ChatGPT bezeichnet Hood als Kriminellen und bringt ihn mit einem | |
| Bestechungs- und Korruptionsskandal zusammen. In Wirklichkeit aber hatte er | |
| den Skandal mit aufgedeckt. | |
| Über seine Anwälte hatte Hood dem Unternehmen OpenAI, das hinter dem | |
| Chatbot steht, eine Mahnung geschickt, die Falschmeldung zu löschen – | |
| andernfalls drohe eine Klage vor Gericht. Bislang hat OpenAI nach seinen | |
| Angaben nicht reagiert – allerdings enthält der Chatbot als | |
| Haftungsausschluss den Hinweis, dass er möglicherweise „unkorrekte | |
| Informationen über Menschen, Orte oder Fakten“ liefert. | |
| „Dass etwas [2][ein bisschen falsch wiedergegeben] wird, ist eine Sache – | |
| aber es ist etwas ganz anderes, wenn jemand als Krimineller beschuldigt | |
| wird, der sogar im Gefängnis gesessen haben soll“, sagte Hood. Sein Anwalt | |
| James Naughton sagte, die von ChatGPT gelieferten Informationen seien | |
| verleumderisch und hätten den Ruf des Bürgermeisters beschädigt. | |
| Hood hatte vor seinem Amtsantritt als Bürgermeister dabei geholfen, | |
| Bestechungen und andere Vergehen bei seinem damaligen Arbeitgeber | |
| aufzudecken. Dies führte in der Folge zu mehreren Anklagen. | |
| ChatGPT erstellt mithilfe von KI Texte. Nutzer können einzelne Befehle oder | |
| Sätze vorgeben, die das System dann mithilfe riesiger Datenmengen aus dem | |
| Internet eigenständig ergänzt. | |
| 6 Apr 2023 | |
| ## LINKS | |
| [1] /Professorin-ueber-kuenstliche-Intelligenz/!5921603 | |
| [2] /ChatGPT-mit-Tuecken/!5924109 | |
| ## TAGS | |
| Kriminalität | |
| Klage | |
| Schwerpunkt Künstliche Intelligenz | |
| Falschaussagen | |
| Technik | |
| Lesestück Recherche und Reportage | |
| Roboter | |
| Interview | |
| Roboter | |
| ## ARTIKEL ZUM THEMA | |
| Folgen von Künstlicher Intelligenz: Ohnmacht durch KI | |
| Künstliche Intelligenz dürfte die Menschheit schneller verändern als die | |
| Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein? | |
| Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
| Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
| zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
| KI und Anthropomorphismus: Mensch in der Maschine? | |
| Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
| wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
| Professorin über künstliche Intelligenz: „Empathie und Wertschätzung“ | |
| Sucht, Schulden, Kindererziehung – bei vielen Problemen können | |
| Online-Beratungsstellen via Chat und Mail helfen. Auch mit einer KI? | |
| ChatGPT mit Tücken: Kein Entkommen vor der KI | |
| Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den | |
| Anfang einer rasanten Entwicklung – die auch Risiken birgt. |