Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Unterhaltungen mit ChatGPT: Löschen verboten
> Nach einer US-Gerichtsentscheidung muss der Chatbot alle Eingaben von
> Nutzenden speichern. Die EU-Aufsichtsbehörde reagiert verhalten.
Bild: Die New York Times hat gegen Open AI klage erhoben
Berlin taz | Die Option ist noch da: „Alle Chats löschen“ findet sich in
dem Menu des KI-Chatbots ChatGPT. Doch wer glaubt, mit dem Klicken auf den
nebenstehenden Button die eigenen Daten auch bei OpenAI, dem Unternehmen
hinter dem [1][Chatbot], zu löschen, irrt. Zwar verschwindet der Verlauf
aus der eigenen Ansicht. Doch seit einer Gerichtsentscheidung aus den USA
muss die Firma sämtliche Konversationen zwischen Mensch und Bot
aufbewahren, zunächst auf unbestimmte Zeit. Ursprünglich hatte OpenAI
zugesichert, die Chats 30 Tage nach dem Entfernen auch auf seinen Servern
zu löschen.
Hintergrund der Gerichtsentscheidung ist ein Streit um Urheberrechte.
[2][Geklagt hat die New York Times]. Sie wirft OpenAI vor, Texte ohne
Genehmigung verwendet zu haben, um ChatGPT zu trainieren. Das habe dazu
geführt, dass Inhalte der New York Times in von [3][ChatGPT] generierten
Texten aufgetaucht seien. Der Bezirksrichter sah im April in der ersten
Instanz die Vorwürfe als belegt an. Und um das Risiko zu vermeiden, dass
entsprechende Beweise durch Löschungen von Nutzer:innen verloren gehen,
muss OpenAI nun erst mal alle Daten aufbewahren. Betroffen sind nahezu alle
Menschen, die den Chatbot verwenden. Nur, wer mit einer speziellen Version
für Unternehmen oder Bildungseinrichtungen arbeitet, dessen Daten werden
weiterhin gelöscht.
OpenAI gab an, Rechtsmittel gegen die Entscheidung einzulegen. Die
Entscheidung „steht im Widerspruch zu den Datenschutzverpflichtungen, die
wir gegenüber unseren Nutzern eingegangen sind. Sie verletzt langjährige
Datenschutznormen und schwächt den Schutz der Privatsphäre“, teilte Brad
Lightcap, OpenAI-Geschäftsführer, im Juni in einem [4][Blogbeitrag] mit.
Die verpflichtend gespeicherten Daten werden demnach in einem extra System
gespeichert, auf das nur ein „kleines, geprüftes Rechts- und
Sicherheitsteam von OpenAI“ zugreifen kann – nur für die Erfüllung der
rechtlichen Verpflichtungen.
Das Problem ist: Diese Speicherpflicht widerspricht der
Datenschutz-Grundverordnung (DSGVO). Die gibt Nutzer:innen unter anderem
das Recht, ihre persönlichen Daten löschen zu lassen. OpenAI teilte im Juni
mit, man ergreife Maßnahmen, den gesetzlichen Verpflichtungen nachzukommen.
Einen neuen Stand gebe es diesbezüglich nicht, antwortete das Unternehmen
auf Anfrage der taz.
## Irische Aufsichtsbehörde reagiert verhalten
Für ein entsprechendes Verfahren in Europa wäre die irische
Datenschutzaufsichtsbehörde (DPC) zuständig, da dort die EU-Niederlassung
von OpenAI sitzt. Viele US-Konzerne wählen diesen Standort, da die irische
Behörde als wirtschaftsfreundlich bekannt ist und die
Datenschutz-Grundverordnung nur sehr vorsichtig anwendet. Die Behörde
teilte der taz mit, dass sie aktuell eine Reihe von Beschwerden gegen
OpenAI vorliegen habe. Zu deren Inhalt könne sie jedoch nichts bekannt
geben, weil es sich um laufende Verfahren handle.
Marco Blocher von der Datenschutz-NGO Noyb rechnet ohnehin nicht damit,
dass eine Beschwerde viel bringen würde: „Die irische DPC hält notorisch
eine schützende Hand über Big-Tech-Unternehmen aus den USA, die ihre
europäische Hauptniederlassung in Irland haben.“ Wahrscheinlich sei, dass
die Behörde das Problem aussitze und warte, bis die Speicheranordnung
wieder aufgehoben wird.
Eine Alternative wäre der Klageweg vor einem europäischen Gericht.
Allerdings: „Wenn die Daten tatsächlich nur zu Beweissicherungszwecken für
das Verfahren mit der New York Times gespeichert werden und OpenAI sie
sonst nicht anrührt, sind die Risiken für Nutzer:innen womöglich
überschaubar, trotz des formalen Konflikts mit der DSGVO.“ Was das
Nichtanrühren angeht, äußert Blocher aber, trotz der gegenteiligen
Versicherungen von OpenAI, Zweifel: „Wie bei allen KI-Anbietern ist hier
ein gewisser Argwohn sicher nicht fehl am Platz.“
Die von OpenAI eingelegte Berufung könnte darauf abzielen, die umfassende
Datenspeicherung als unverhältnismäßig anzugreifen. Eine entsprechende
Argumentation deutet das Unternehmen in seinem Blogbeitrag an. Denn
tatsächlich dürfte nur ein verschwindend geringer Teil der
ChatGPT-Konversationen etwas mit dem Urheberrechtsstreit zu tun haben.
## Tipp: So wenig Persönliches wie möglich preiszugeben
So lange haben Nutzer:innen kaum Handhabe: „Momentan kann man als
Einzelperson gegen diese Speicherung wenig tun“, sagt Blocher. Er empfiehlt
für die Nutzung von KI-Chatbots generell, so wenig Persönliches wie möglich
preiszugeben. Denn die eingegebenen Informationen sind nicht unbedingt
privat.
So wurde vergangene Woche bekannt, dass einige Konversationen in ChatGPT
durch eine fehlerhafte Programmierung im Index der Suchmaschine Google
gelandet und damit öffentlich auffindbar waren. Und bei der Google-KI
Gemini können standardmäßig Menschen die Chatverläufe zur
Qualitätsverbesserung lesen. „Generell ist in Sachen KI ein ‚Wettrüsten�…
Gange, in dem geltendes Recht achselzuckend ignoriert wird“, kritisiert
Blocher.
7 Aug 2025
## LINKS
[1] /Warum-ich-keine-Angst-mehr-vor-KI-habe/!6101655
[2] /OpenAI-und-Microsoft-verklagt/!5981722
[3] /Die-KI-als-freundlicher-Zensor/!6103971
[4] https://openai.com/index/response-to-nyt-data-demands/
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
ChatGPT
Datenschutz
Datenschutzgrundverordnung
Social-Auswahl
Reden wir darüber
Kolumne Änder Studies
wochentaz
Schwerpunkt Artenschutz
## ARTIKEL ZUM THEMA
Fähigkeiten von KI: Warum ich keine Angst mehr vor künstlicher Intelligenz ha…
Künstliche Intelligenz würde unser aller Leben komplett verändern, heißt
es. Von der KI-Revolution ist allerdings noch nicht so viel zu spüren.
Europäische KI-Verordnung: KI-Kängurus nur mit Wasserzeichen
Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche
Intelligenz ab August transparent machen. Die Industrie will andere Regeln
aufweichen.
Künstliche Intelligenz im Artenschutz: Wenn Algorithmen Elefanten beobachten
Bisher mussten ArtenschützerInnen Tierbestände mühsam zählen. KI erkennt
Muster und kann gar helfen, Konflikten zwischen Mensch und Tier
vorzubeugen.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.