Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Beschwerde gegen ChatGPT: Wenn die KI einem Nutzer einen Mord zusch…
> Immer wieder generieren KI-Chatbots Falsches über Menschen. Einen
> Norweger hat es nun besonders schwer getroffen.
Bild: Der undurchsichtige Chatbot von Open AI hat schon wiederholt Falschinform…
Berlin taz | Es klingt wie eine Szene aus einem Psychothriller: Ein Mann
fragt beim KI-Chatbot ChatGPT nach Informationen zu seinem eigenen Namen.
Worauf er nicht vorbereitet war: Der Chatbot generierte daraufhin eine
Antwort, in der es wahrheitswidrig unter anderem hieß, er habe zwei seiner
Kinder ermordet, beim Dritten habe er einen Mord versucht und sei für die
Taten zur Höchststrafe von 21 Jahren Haft verurteilt worden. Die falsche
Schilderung enthielt aber durchaus reale Elemente über den Nutzer aus
Norwegen, unter anderem den Namen seiner Heimatstadt.
Unterstützt wird der Betroffene nun von der Datenschutzorganisation noyb,
die für diesen Fall Beschwerde vor der norwegischen Datenschutzbehörde
eingereicht hat. Die Datenschutz-Grundverordnung (DSGVO) gilt auch dort,
Norwegen ist Teil des Europäischen Wirtschaftsraumes.
„Die DSGVO ist hier unmissverständlich. Persönliche Daten müssen korrekt
sein“, erklärt Joakim Söderberg, Jurist bei noyb. Nutzer:innen hätten
das Recht, Falschinformationen richtigstellen zu lassen. Lediglich einen
Hinweis anzuzeigen, dass die generierten Informationen nicht
notwendigerweise korrekt sind, sei nicht ausreichend.
ChatGPT ist [1][eine der am meisten genutzten Anwendungen] generativer
künstlicher Intelligenz, also von KI, die zum Beispiel auf eine Texteingabe
hin weiteren Text, Bilder oder Videos erzeugt. Dass dabei Inhalte
entstehen, die nichts mit der Wirklichkeit zu tun haben, ist nicht neu.
ChatGPT generierte unter anderem bereits nicht existente wissenschaftliche
Quellen, Fehlinformationen zu Parteien und falsche Informationen über
Menschen.
## Nicht das erste Verfahren
Es läuft [2][bereits ein Verfahren], in dem noyb Beschwerde eingereicht
hat, weil der Chatbot ein falsches Geburtsdatum zu einer Person erzeugt
hat. Das Generieren fehlerhafter Inhalte wird häufig unter dem Begriff
„Halluzinationen“ zusammengefasst. Dieser ist jedoch problematisch, weil er
den Chatbots damit eine menschliche Eigenschaft zuschreibt.
Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an
der Europa-Universität Viadrina, bezeichnet das Vorgehen von noyb auf Basis
der Datenschutz-Grundverordnung als „strategisch klug“. „Damit lässt sich
ein europaweit geltendes Urteil erstreiten, und für einen
Schadenersatzanspruch muss kein Verschulden nachgewiesen werden, die
Haftung ist also strikter als im Bereich des Persönlichkeitsrechts“, so
Hacker gegenüber dem Science Media Center.
Zudem liege die Rechtsdurchsetzung auf diesem Weg zunächst bei den
Datenschutzaufsichtsbehörden. Auf deren Arbeit könne sich der Betroffene
dann gegebenenfalls berufen, wenn er später eine Zivilklage anstrengt.
## Mögliche Folgen
Die Frage ist: Was könnte – neben einem möglichen Bußgeld und eventuellen
Schadenersatzansprüchen – die Konsequenz aus dem Fall sein? „Es ist
gegenwärtig technisch nur sehr schwer möglich, diese Halluzinationen
einzudämmen oder gar auszuschließen“, sagt Hacker. Wenn die Verstöße zu
viele und zu schwerwiegend seien, könne eine Aufsichtsbehörde das
entsprechende KI-System zeitweilig sperren, bis die Probleme behoben sind.
Das entschied etwa die italienische Datenschutzaufsichtsbehörde bei ChatGPT
und später auch bei dem chinesischen Anbieter DeepSeek.
„OpenAI könnte dann entweder versuchen, die Suche nach Personen gänzlich zu
unterbinden oder mit der Datenschutzaufsichtsbehörde und gegebenenfalls
letztlich dem Geschädigten und einem Gericht eine Einigung dahingehend zu
erzielen, dass zumindest die Wahrscheinlichkeit derartiger Fehler durch
Filtermaßnahmen und ein funktionierendes Notice-and-Action-System drastisch
reduziert wird“, so Hacker. Das Unternehmen müsste also niedrigschwellige
Beschwerdewege für Nutzer:innen einrichten und die Ausgabe von
Falschinformationen nach entsprechenden Hinweisen unterbinden.
Ein Sprecher von OpenAI teilte auf Anfrage mit, dass die vorliegende
Beschwerde noch geprüft werde. Das Unternehmen habe jedoch bereits reagiert
und eine Onlinesuche in den Chatbot eingebaut. Das solle die „Genauigkeit“
der Ergebnisse verbessern.
24 Mar 2025
## LINKS
[1] /ChatGPT-mit-Tuecken/!5924109
[2] /Beschwerde-gegen-OpenAI-in-der-EU/!6007268
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Datenschutz
Verbraucherschutz
ChatGPT
Schwerpunkt Künstliche Intelligenz
Roboter
Transparenz
## ARTIKEL ZUM THEMA
Nutzen und Gefahren von KI: Keine Angst, aber Regeln
KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die
EU ist auf dem richtigen Weg.
ChatGPT mit Tücken: Kein Entkommen vor der KI
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
Anfang einer rasanten Entwicklung – die auch Risiken birgt.
OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
problematischer.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.