# taz.de -- Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zusch… | |
> Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen | |
> Norweger hat es nun besonders schwer getroffen. | |
Bild: Der undurchsichtige Chatbot von Open AI hat schon wiederholt Falschinform… | |
Berlin taz | Es klingt wie eine Szene aus einem Psychothriller: Ein Mann | |
fragt beim KI-Chatbot ChatGPT nach Informationen zu seinem eigenen Namen. | |
Worauf er nicht vorbereitet war: Der Chatbot generierte daraufhin eine | |
Antwort, in der es wahrheitswidrig unter anderem hieß, er habe zwei seiner | |
Kinder ermordet, beim Dritten habe er einen Mord versucht und sei für die | |
Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden. Die falsche | |
Schilderung enthielt aber durchaus reale Elemente über den Nutzer aus | |
Norwegen, unter anderem den Namen seiner Heimatstadt. | |
Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb, | |
die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde | |
eingereicht hat. Die Datenschutz-Grundverordnung (DSGVO) gilt auch dort, | |
Norwegen ist Teil des Europäischen Wirtschaftsraumes. | |
„Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt | |
sein“, erklärt Joakim Söderberg, Jurist bei noyb. Nutzer:innen hätten | |
das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen | |
Hinweis anzuzeigen, dass die generierten Informationen nicht | |
notwendigerweise korrekt sind, sei nicht ausreichend. | |
ChatGPT ist [1][eine der am meisten genutzten Anwendungen] generativer | |
künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe | |
hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte | |
entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu. | |
ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche | |
Quellen, Fehlinformationen zu Parteien und falsche Informationen über | |
Menschen. | |
## Nicht das erste Verfahren | |
Es läuft [2][bereits ein Verfahren], in dem noyb Beschwerde eingereicht | |
hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt | |
hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff | |
„Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er | |
den Chatbots damit eine menschliche Eigenschaft zuschreibt. | |
Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an | |
der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis | |
der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich | |
ein europaweit geltendes Urteil erstreiten, und für einen | |
Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die | |
Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so | |
Hacker gegenüber dem Science Media Center. | |
Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den | |
Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene | |
dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt. | |
## Mögliche Folgen | |
Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen | |
Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist | |
gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen | |
einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu | |
viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das | |
entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind. | |
Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT | |
und später auch bei dem chinesischen Anbieter DeepSeek. | |
„OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu | |
unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls | |
letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu | |
erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch | |
Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch | |
reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige | |
Beschwerdewege für Nutzer:innen einrichten und die Ausgabe von | |
Falschinformationen nach entsprechenden Hinweisen unterbinden. | |
Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende | |
Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert | |
und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“ | |
der Ergebnisse verbessern. | |
24 Mar 2025 | |
## LINKS | |
[1] /ChatGPT-mit-Tuecken/!5924109 | |
[2] /Beschwerde-gegen-OpenAI-in-der-EU/!6007268 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Datenschutz | |
Verbraucherschutz | |
ChatGPT | |
Schwerpunkt Künstliche Intelligenz | |
Roboter | |
Transparenz | |
## ARTIKEL ZUM THEMA | |
Nutzen und Gefahren von KI: Keine Angst, aber Regeln | |
KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die | |
EU ist auf dem richtigen Weg. | |
ChatGPT mit Tücken: Kein Entkommen vor der KI | |
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den | |
Anfang einer rasanten Entwicklung – die auch Risiken birgt. | |
OpenAI in der Kritk: Transparent gewaschen | |
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf | |
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso | |
problematischer. |