Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Europäische KI-Verordnung: KI-Kängurus nur mit Wasserzeichen
> Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche
> Intelligenz ab August transparent machen. Die Industrie will andere
> Regeln aufweichen.
Bild: Ein garantiert echtes Känguru – 1961 fotografiert
Am Flughafen, kurz vor dem Boarding. Eine Passagierin diskutiert
verzweifelt gestikulierend mit einer Airline-Angestellten. Dann schwenkt
die Kamera von den beiden weg zu einem Känguru mit vermeintlicher Bordkarte
in der Hand.
Wird hier etwa einem Menschen samt „emotional support animal“ – ein Tier,
das etwa bei psychischen Erkrankungen Halt geben soll – der Zugang
verwehrt?
Ende Mai ging dieses [1][Video] viral, und wie aus den Kommentarspalten zu
entnehmen ist, hielten viele Menschen diesen Fake für authentisch.
Hergestellt wurde der Schnipsel mit künstlicher Intelligenz (KI). Nicht nur
durch kurzes Nachdenken wäre man womöglich darauf gekommen – auch das Motto
des Instagram-Accounts, „Your Daily Dose of Unreality“ (etwa: Deine
tägliche Portion Unrealistisches) ist vielsagend. Das Logo des Kanals ist
sogar im Video zu sehen. Doch derartige Checks sind es eben, die beim
schnellen Scrollen durch Social Media zu kurz kommen.
## Strenge Regeln bei Deepfakes
Nun hat es in der Regel keine schlimmen Folgen, auf einen Fake-Känguru-Clip
hereinzufallen. Im Gegenteil: Es kann sogar hilfreich sein, wenn dem
nächsten Video dann mit größerer Vorsicht begegnet wird. Doch es gibt
andere mit KI erstellte Inhalte, bei denen die Folgen gravierend sein
können.
Videos, die angebliche Kriegshandlungen oder andere relevante Geschehnisse
zeigen sollen – wie das von Trump geteilte Ergebnis künstlicher
Intelligenz, das die angebliche Festnahme Barack Obamas zeigt. Oder
Deepfakes, bei denen einer Person mit ihrer eigenen, aber KI-generierten
Stimme lippensynchron Worte in den Mund gelegt werden. Oder KI-Pornos, in
denen Bilder von Frauen, meist Prominenten, auf die Körper von
Darstellerinnen montiert werden, ohne dass die Montage ersichtlich ist.
Ab August soll sich das ändern. Dann werden einige Meilensteine des [2][AI
Acts], der EU-KI-Verordnung, wirksam. Zentral dabei: Anbieter von
KI-Systemen müssen Transparenzpflichten von nun an erfüllen. Chatte ich
gerade mit einem Menschen oder einem Bot? Wurde ein Bild, Video oder
Audio-Inhalt von einer KI erzeugt? Die Kennzeichnungspflicht gilt auch und
noch strenger für Deepfakes.
„Die Neuerungen des AI-Acts tragen maßgeblich zum Schutz von Verbrauchern
bei“, sagt der auf Verbraucherfragen spezialisierte Rechtsanwalt Christian
Solmecke. In der Pflicht sind vor allem die Anbieter von KI-Systemen, also
zum Beispiel ChatGPT oder Gemini. Sie müssen KI-Inhalte kennzeichnen,
zunächst „maschinenlesbar“.
Das kann zum Beispiel ein digitales Wasserzeichen sein, das Plattformen wie
Instagram oder Tiktok auslesen und den Inhalt entsprechend als KI-generiert
markieren können. Bei Verstößen kann es teuer werden: Bußgelder dürfen bis
zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes des
Unternehmens betragen.
Auch die Nutzer:innen sind gefragt: „Bei Deepfakes, also realistisch
manipulierten Bildern, Audio- oder Videoinhalten, bei denen eine Person
irreführend dargestellt wird, trifft die Pflicht zur Kennzeichnung nicht
nur den Anbieter des KI-Systems, sondern auch explizit den ‚Bereitsteller‘,
also die Person, die das Deepfake erstellt oder veröffentlicht“, erklärt
Solmecke. Diese Kennzeichnung muss auch für Menschen erkennbar sein.
Transparenter sollen auch die Trainingsdaten werden – zumindest ein
bisschen. Aus diesen Daten erkennen die Algorithmen Muster, die sie später
anwenden. Wenn die Trainingsdaten nicht sorgfältig ausgewählt wurden,
können sie zu Verzerrungen führen. Denn eine KI, die beispielsweise nur mit
Fotos von weißen, männlichen Ärzten gefüttert wurde, wird wahrscheinlich
keine Abbildungen von PoC-Ärztinnen erzeugen.
Hersteller besonders mächtiger KI-Modelle, wie etwa ChatGPT, müssen den
neuen Regeln zufolge zumindest zusammenfassend offenlegen, welche
Trainingsdaten verwendet wurden. Ob das tatsächlich dafür sorgt, dass
Verzerrungen oder problematische Inhalte frühzeitig erkannt werden, muss
sich noch zeigen.
Derweil versuchen Akteure aus der Industrie zunehmend, die KI-Regeln zu
schwächen. Für die USA hat Trump am Mittwoch angekündigt, die ohnehin
rudimentären Vorgaben abzuschaffen. Und auch in Europa sehen Unternehmen
anscheinend Chancen, die Vorgaben zu verwässern.
So forderten Anfang Juli rund 50 Topmanager:innen europäischer
Unternehmen, ihre Umsetzung aufzuschieben. Die Regeln „gefährden nicht nur
die Entwicklung von europäischen Champions, sondern auch die Möglichkeiten
aller Industrien, KI so einzusetzen, wie es der globale Wettbewerb
erfordert“, heißt es in dem [3][Schreiben]. Unterzeichnet haben unter
anderem Verantwortliche von Mercedes-Benz, Siemens Energy, Lufthansa,
Südzucker und Ravensburger.
## Ein Kodex, der sich langsam wandelt
Da dürfte es die Industrie freuen, dass sich ein wichtiges Verfahren gerade
verzögert: nämlich die Erstellung eines Verhaltenskodex für Hersteller von
KI-Systemen. Ursprünglich sollte der seit Mai vorliegen. Doch Anfang Juli
teilte die EU-Kommission mit, dass es wohl eher bis Ende des Jahres dauern
werde.
Felix Duffy von [4][LobbyControl] glaubt nicht, dass hinter der
Verschiebung Lobbydruck steht – wohl aber hinter den sich verändernden
Inhalten des Kodex. Diese hätten sich mittlerweile in eine deutlich
industriefreundlichere Richtung entwickelt. Etwa wenn es darum geht,
welche Maßnahmen Hersteller ergreifen müssen, um die Risiken für Demokratie
und Gesellschaft möglichst gering zu halten.
„Was die Schutzmaßnahmen angeht, haben die Konzerne einen viel größeren
Handlungsspielraum als ursprünglich vorgesehen“, kritisiert Duffy. Im
Ergebnis könnten sich die Hersteller so attestieren, ausreichend präventiv
zu arbeiten. Der Experte kritisiert: „Die großen Tech-Konzerne und
Betreiber von KI-Modellen hatten privilegierten Zugang zu dem Prozess, in
dem der Verhaltenskodex erstellt wurde.“ Derweil hätten
zivilgesellschaftliche Akteure nur am Rande mitreden dürfen.
Das sorgte für breiten Protest: Reporter ohne Grenzen etwa gab im April
bekannt, die [5][Mitarbeit an dem Kodex zu beenden] – unter anderem
aufgrund des „überwältigenden Einflusses der Industrie“.
26 Jul 2025
## LINKS
[1] https://www.instagram.com/infiniteunreality/reel/DKFkqenMph3/?hl=de
[2] /Neue-Regeln-fuer-KI/!5994919
[3] https://docs.google.com/document/d/16570SgWppeeeYINe4WydTbG2ioBTPdOW_fmfMbm…
[4] https://www.lobbycontrol.de/
[5] https://rsf.org/en/rsf-withdraws-negotiations-european-ai-act-s-code-practi…
## AUTOREN
Svenja Bergt
## TAGS
wochentaz
Schwerpunkt Künstliche Intelligenz
Verbraucherschutz
GNS
Reden wir darüber
Social-Auswahl
Schwerpunkt Künstliche Intelligenz
Kolumne Digitalozän
Schwerpunkt Künstliche Intelligenz
Datenschutz
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Unterhaltungen mit ChatGPT: Löschen verboten
Nach einer US-Gerichtsentscheidung muss der Chatbot alle Eingaben von
Nutzenden speichern. Die EU-Aufsichtsbehörde reagiert verhalten.
Musikhören in Zeiten von KI: Algorithmen, die Ohrwürmer schreiben
Musik, die mit Hilfe von Künstlicher Intelligenz produziert wurde – das
geht heute schon in Sekunden. Unsere Autorin hat deshalb Vorurteile.
KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte Miika
Blinn.
AI-Verordnung der EU: Streit um KI-Training mit Artikeln
Der neue AI-Act der EU lässt Fragen nach dem Verhältnis von Medien und KI
offen. Zum Beispiel: Darf man KIs mit journalistischen Texten füttern?
FAQ zum neuen AI Act der EU: KI bekommt Regeln
Künstliche Intelligenz hilft bei der Überwachung, aber auch bei der
Verbreitung von Hass und Fake News. Die EU schafft nun weltweit einmalig
Recht.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.