| # taz.de -- Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zusch… | |
| > Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen | |
| > Norweger hat es nun besonders schwer getroffen. | |
| Bild: Der undurchsichtige Chatbot von Open AI hat schon wiederholt Falschinform… | |
| Berlin taz | Es klingt wie eine Szene aus einem Psychothriller: Ein Mann | |
| fragt beim KI-Chatbot ChatGPT nach Informationen zu seinem eigenen Namen. | |
| Worauf er nicht vorbereitet war: Der Chatbot generierte daraufhin eine | |
| Antwort, in der es wahrheitswidrig unter anderem hieß, er habe zwei seiner | |
| Kinder ermordet, beim Dritten habe er einen Mord versucht und sei für die | |
| Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden. Die falsche | |
| Schilderung enthielt aber durchaus reale Elemente über den Nutzer aus | |
| Norwegen, unter anderem den Namen seiner Heimatstadt. | |
| Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb, | |
| die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde | |
| eingereicht hat. Die Datenschutz-Grundverordnung (DSGVO) gilt auch dort, | |
| Norwegen ist Teil des Europäischen Wirtschaftsraumes. | |
| „Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt | |
| sein“, erklärt Joakim Söderberg, Jurist bei noyb. Nutzer:innen hätten | |
| das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen | |
| Hinweis anzuzeigen, dass die generierten Informationen nicht | |
| notwendigerweise korrekt sind, sei nicht ausreichend. | |
| ChatGPT ist [1][eine der am meisten genutzten Anwendungen] generativer | |
| künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe | |
| hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte | |
| entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu. | |
| ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche | |
| Quellen, Fehlinformationen zu Parteien und falsche Informationen über | |
| Menschen. | |
| ## Nicht das erste Verfahren | |
| Es läuft [2][bereits ein Verfahren], in dem noyb Beschwerde eingereicht | |
| hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt | |
| hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff | |
| „Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er | |
| den Chatbots damit eine menschliche Eigenschaft zuschreibt. | |
| Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an | |
| der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis | |
| der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich | |
| ein europaweit geltendes Urteil erstreiten, und für einen | |
| Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die | |
| Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so | |
| Hacker gegenüber dem Science Media Center. | |
| Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den | |
| Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene | |
| dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt. | |
| ## Mögliche Folgen | |
| Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen | |
| Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist | |
| gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen | |
| einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu | |
| viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das | |
| entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind. | |
| Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT | |
| und später auch bei dem chinesischen Anbieter DeepSeek. | |
| „OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu | |
| unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls | |
| letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu | |
| erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch | |
| Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch | |
| reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige | |
| Beschwerdewege für Nutzer:innen einrichten und die Ausgabe von | |
| Falschinformationen nach entsprechenden Hinweisen unterbinden. | |
| Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende | |
| Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert | |
| und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“ | |
| der Ergebnisse verbessern. | |
| 24 Mar 2025 | |
| ## LINKS | |
| [1] /ChatGPT-mit-Tuecken/!5924109 | |
| [2] /Beschwerde-gegen-OpenAI-in-der-EU/!6007268 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Datenschutz | |
| Verbraucherschutz | |
| ChatGPT | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Roboter | |
| Transparenz | |
| ## ARTIKEL ZUM THEMA | |
| Ethik-Problem bei Facebook-Mutter: Meta ließ seine KI mit Kindern flirten | |
| KI-Chatbots des Konzerns durften laut internen Richtlinien „Kinder in | |
| romantische oder sinnliche Gespräche verwickeln“. US-Politiker sind empört. | |
| Nutzen und Gefahren von KI: Keine Angst, aber Regeln | |
| KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die | |
| EU ist auf dem richtigen Weg. | |
| ChatGPT mit Tücken: Kein Entkommen vor der KI | |
| Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den | |
| Anfang einer rasanten Entwicklung – die auch Risiken birgt. | |
| OpenAI in der Kritk: Transparent gewaschen | |
| Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf | |
| ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso | |
| problematischer. |