Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
> ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
> Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
Bild: Gerade für Musiker ist ihre Identität wichtig. Ein Song schafft es leic…
Erschrocken und belustigt zugleich war Sebastian Schnitzenbaumer, als er
ChatGPT nach seinem eigenen Musikprojekt Belp befragte. Denn die künstliche
Intelligenz antwortete, dass nicht er, der Münchner Musiker, hinter dem
Pseudonym Belp stecke, sondern ein gewisser Marco Guazzone; und die KI
untermauerte diese Aussage gleich noch durch ein cooles Schwarzweißbild.
Dieser Marco Guazzone existiert wirklich, es ist ein italienischer Musiker,
dessen Mainstream-Bombastpop nicht weiter entfernt sein könnte von
Schnitzenbaumers komplexen, den Erwartungen entgegenlaufenden
Techno-Tracks. Der fand das alles bald gar nicht mehr lustig.
Belp sei außerdem Teil des Musikkollektivs Loose Wire Head Radio, behauptet
ChatGPT auch noch. Kein schlechter Name für ein Musikkollektiv – nur leider
diesmal frei erfunden. „Identitätsklau“ nennt der 46-jährige Münchner DJ
und Elektronik-Produzent diese Falschinformation. „Und man würde
normalerweise sagen: Verleumdung“, sagt Schnitzenbaumer. „Ich werde dort
aufgrund von vielen richtigen Informationen mit einer komplett falschen
Identität vermischt. Und das mag niemand.“
Er prüft eine Klage gegen [1][OpenAI, das US-Software-Unternehmen], das
hinter ChatGPT steht. Vor allem aber will Schnitzenbaumer nun eine Debatte
anstoßen, darüber, was künstliche Intelligenz kann und was nicht.
## Nichts davon entspricht der Wahrheit
Schnitzenbaumer nutzte ChatGPT 3 für seine Frage, die kostenlose und
derzeit am meisten genutzte Variante der Sprach-KI. Die neuere
Bezahlversion ChatGPT 4 funktioniert bereits besser, sie gibt zum Beispiel
zuverlässig Belps bürgerlichen Namen korrekt an, flunkert aber auch hier
und da. Einmal ist Belp ansässig in Berlin und nutzt traditionelle
Instrumente, ein andermal trägt seine Musik meditative Züge. Nichts davon
entspricht der Wahrheit.
„Halluzinieren“ nennt die Fachwelt das. Der bisher prominenteste Fall:
US-Juraprofessor Jonathan Turley wurde von ChatGPT fälschlicherweise der
sexuellen Belästigung beschuldigt. Das Problem: Diese Halluzinationen
können nicht so einfach erkannt und noch schwerer – genau genommen gar
nicht – gelöscht oder richtiggestellt werden. Denn sie sind aufs Engste
verknüpft mit der Arbeitsweise von [2][KI-Programmen wie ChatGPT], mit
deren Algorithmus.
ChatGPT ist eine KI der Sorte large language model, ein großes
Sprachmodell. Der Algorithmus wurde mit Millionen von Texten im Internet
gefüttert. Und liefert nun Informationen mit Textbausteinen, indem er immer
das nächste wahrscheinlichste Wort sucht. Ob dieses Wort etwas mit der
Wahrheit zu tun hat oder nicht, kann das Programm gar nicht unterscheiden.
Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche
Intelligenz in Berlin betont, dass large language models vor allem darauf
getrimmt sind, neue Texte zu kreieren, die möglichst überzeugend klingen:
„Wenn man dem Ding jetzt sagt: Aljoscha Burchardt war ein Radrennfahrer im
Frankreich der 1950er Jahre, dann wird eine plausible Geschichte über einen
Radrennfahrer im Frankreich der 1950er Jahre geschrieben. Und das sind dann
eben keine Fakten.“
## Plausible Erklärung im System
Anders sei das bei allgemein bekannten Personen, über die sich viele
Informationen im Netz finden. „Wenn man nach Bundeskanzler Olaf Scholz
fragt“, so Burchardt, „kommt da wahrscheinlich etwas Sinnvolleres raus.
Aber wenn man nach Personen fragt, über die es nicht viele öffentliche
Informationen gibt, dann kommt aus dem System einfach das raus, was
möglicherweise plausibel klingt.“
Für Musikerinnen und Musiker sind solche Halluzinationen besonders fatal,
sagt Sebastian Schnitzenbaumer. Denn deren Identität sei heute wichtiger
denn je. „Musiker und Künstler“, so Schnitzenbaumer, „haben aufgrund der
Entwertung der Kunst in den letzten 10, 20 Jahren gelernt, dass ihr Brand
und ihre Identität das wertvollste Gut ist.“ Wenn jetzt KI auch noch die
Identität klaue und umbaue, würde die Möglichkeit der Vermarktung ihrer
Kunst weiter erodiert.
Tatsächlich sind heute oft die Geschichten hinter den Songs und Alben
entscheidend, die Erzählung des Künstlers. Ein Song schafft es nämlich dann
leichter ins Radio und auf wichtige Playlists, wenn es eine gute Story dazu
gibt. Auch deshalb prüft Schnitzenbaumer eine Klage gegen OpenAI. Die
Nichtregierungsorganisation NOYB um den Österreicher Max Schrems hat das
erst kürzlich angestrengt – weil das Programm ein falsches Geburtsdatum
angab.
Ob die Klage Erfolg haben wird, bleibt zunächst unklar. Aljoscha Burchardt
sieht in solchen Fällen keine direkte Schuld bei OpenAI. „Das Werkzeug
wurde falsch eingesetzt“, erklärt er. Es habe schließlich niemand
behauptet, dass KI-Programme wahrheitsgemäße Artikel schreiben können.
## Wahrheit suggeriert
Nur über die Argumentation, dass OpenAI nicht gut genug darüber aufgeklärt
habe, wie ChatGPT funktioniert, sieht er eine mögliche rechtliche Handhabe.
Die US-Firma „suggeriere vielleicht dadurch, wie das System sich gibt und
wie das System antwortet, dass es Wahrheit ausgibt“.
Das sieht der Straubinger Bundestagsabgeordnete Erhard Grundl (Bündnis
90/Die Grünen) ähnlich. Grundl ist Leiter der Arbeitsgemeinschaft Kultur
und Medien der Grünen-Fraktion im Bundestag und Mitglied im Ausschuss für
Kultur- und Medienpolitik. „Sein Werk kann ich schützen“, sagt Grundl über
Schnitzenbaumers Fall. „Aber Fehlinformationen, die dann über ihn in der
Welt sind – das wird sehr schwierig.“
Die gerade erst verabschiedete KI-Verordnung der EU hat zwar Chatbots wie
ChatGPT im Blick, greift aber in diesem Fall auch nicht. Grundl glaubt,
dass es mehr Medienkompetenz braucht. „Das müssen wir fördern. Da kommt die
Politik ins Spiel.“
## ChatGBT: falsch, irreführend oder erniedrigend
Eine Bitte um Stellungnahme bei OpenAI zu den Vorwürfen von Sebastian
Schnitzenbaumer blieb unbeantwortet. Der Sachverhalt ist aber auch in den
USA ein heikles Thema. Die Aufsichtsbehörde FTC (Federal Trade Commission)
hat erst vor Kurzem eine Untersuchung von OpenAI gestartet und dem
Unternehmen einen 20-seitigen Fragenkatalog geschickt. Eine der Fragen
betrifft die Aussagen von ChatGPT über reale Menschen, die falsch,
irreführend oder erniedrigend sind.
Bisher ist es noch nicht weit her mit der allgemeinen Medienkompetenz in
Sachen KI. Denn viele User:Innen nutzen die Programme eben als
Suchmaschine und Informationsquelle. „Das ist super brutal“, erzählt
Aljoscha Burchardt. „Das haben wir untersucht: User nutzen das auch, um
sich über Wahlthemen und Politikerinnen zu informieren. Das hat großes
Potenzial, Unfrieden zu stiften.“
Hinzu kommt: Künstliche Intelligenz entwickelt sich so rasant wie nie
zuvor. Gerade noch staunte die Welt über ChatGPT 3, schon gibt es einen
ganzen Wald von besseren Sprach-KIs. „Wie wir alle wissen, hat die KI ein
anderes Zeitverständnis als wir“, sagt Erhard Grundl mit Blick auf die
Regulierung durch die Politik. „Wenn heute etwas beschlossen wird, kann es
sein, dass das in vielen Bereichen schon wieder überholt ist. Es muss also
eine ständige Evaluierung stattfinden.“
Mehr Medienkompetenz, mehr Wissen darüber, was künstliche Intelligenz kann
und was nicht, wie sie funktioniert – das ist im Kern auch das, was der
Münchner Musiker Sebastian Schnitzenbaumer sich wünscht. Denn noch säßen
wir einem veralteten Bild von künstlicher Intelligenz auf, sagt er.
„Popkultur und Science-Fiction-Kultur“, so Schnitzenbaumer, „haben
Computer, Roboter und Androiden oft in ihrer Unfehlbarkeit dargestellt: Der
Computer hat immer recht. Mit ChatGPT passiert genau das Gegenteil.“
Wir müssten lernen, dass Computer und Softwaresysteme extrem fehleranfällig
sind. „Wir haben hier träumende Software, und wir müssen uns einfach daran
gewöhnen, dass Software bewusst unechte Ergebnisse liefert.“ Sollten wir
also in Zukunft von mehr oder weniger verträumten KIs sprechen? Oder wäre
das nicht auf andere Weise irreführend, weil viel zu vermenschlichend?
## Kein Unterschied von Fakt und Fiktion
Sollten wir überhaupt von künstlicher Intelligenz sprechen, wenn die
Programme am Ende ja doch wieder nur aus Algorithmen bestehen, die nicht
einmal bei ihren eigenen Kreationen Fakt von Fiktion unterscheiden können?
Aljoscha Burchardt will jedenfalls nicht mehr von „halluzinieren“ sprechen.
„Wenn wir doch alle wissen, dass von generativer KI erzeugte Inhalte nicht
notwendigerweise wahr sind, dann kann man doch einfach sagen, das hier ist
eine automatisch oder statistisch generierte Antwort.“ Vielleicht braucht
es das: unaufgeregte Nüchternheit, was künstliche Intelligenz angeht. Auch,
damit die Musik nicht ein weiteres Mal entwertet wird von den digitalen
Umwälzungen unserer schönen neuen Welt.
10 May 2024
## LINKS
[1] /Zwischenbilanz-einer-neuen-Technologie/!6006224
[2] /Neue-Regeln-fuer-KI/!5994919
## AUTOREN
Hardy Funk
## TAGS
Fake News
Musik
Identität
Wahrheit
wochentaz
Schwerpunkt Künstliche Intelligenz
Google
wochentaz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Pseudonyme
Schwerpunkt Künstliche Intelligenz
wochentaz
## ARTIKEL ZUM THEMA
Künstliche Intelligenz als Suchmaschine: Besser als Google
Google war mal ein Geheimtipp, heute ist die Suchmaschine mit Anzeigen und
kommerziellen Inhalten überladen. Wie KI die Informationssuche verändert.
Künstliche Intelligenz erzählt Quatsch: Keine Halluzination, sondern Bullshit
Wenn KI-Chatbots falsche Dinge erzählen, sagt man, dass sie halluzinieren.
Eine neue Studie untersucht, warum dieser Begriff das Problem verfehlt.
Nationale KI-Strategie: Unternehmen fehlen KI-Kompetenzen
Die OECD lobt die deutsche Forschung zu künstlicher Intelligenz, aber nicht
die Umsetzung in den Firmen. Es fehlt an Qualifikationen.
Künstliche Intelligenz: EU-Regeln für KI kommen
Europa beschließt Regeln für den Einsatz von künstlicher Intelligenz. Die
Vorgaben zu Chatbots wie ChatGPT gelten Kritikern als zu lasch.
KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte Miika
Blinn.
Detlef Diederichsen Böse Musik: Richtig Schotter mit Johan Röhr und KI
Kaum einer kennt Schwedens meistgestreamten Musiker: wie sich in der
Anonymität mit KI viel Geld verdienen lässt.
Digitale Sphäre in der Kunst: So düster, dieses Technozän
Es rauscht in der Black Box: 40 Künstler:innen rechnen in der Berliner
Ausstellung „Poetics of Encryption“ mit der digital durchdrungenen Welt ab.
Captcha-Tests zur KI-Erkennung: Sei ein Mensch!
Captcha-Tests am Computer sollen aufzeigen, ob man ein Mensch ist. Wie
schön wäre so was im echten Leben?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.