# taz.de -- KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“ | |
> Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann | |
> Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte | |
> Miika Blinn. | |
Bild: Die rechtliche Lage zu Videoüberwachung mit KI-Gesichtserkennung, hier b… | |
taz: Herr Blinn, die neuen EU-Regeln für künstliche Intelligenz (KI) sind | |
nun final beschlossen. Wann werden Verbraucher:innen etwas davon | |
mitbekommen? | |
Miika Blinn: Die ersten Vorschriften treten schon in einem halben Jahr in | |
Kraft. Damit werden KI-Systeme mit nicht tolerierbarem Risiko verboten, zum | |
Beispiel das Anlegen von Gesichtsdatenbanken mit Bildern aus dem Internet. | |
Richtig etwas merken wird man spätestens in zwei Jahren. Dann müssen | |
[1][zum Beispiel mit KI erzeugte Bilder], Videos oder Texte gekennzeichnet | |
werden. Und: Firmen müssen dann auch kennzeichnen, wenn sie zum Beispiel in | |
einem Service-Chat oder bei einer Telefon-Hotline KI einsetzen. Das kann | |
zum Beispiel mit einem Siegel geschehen, mit einem Button, einem | |
Wasserzeichen oder, bei der Hotline, einer kurzen Erklärung am Anfang des | |
Anrufs. | |
Es werden sich aber wie immer nicht alle daran halten. | |
Ja, davon ist auszugehen. Schon heute ist es bei IT-Sicherheit ein | |
Katz-und-Maus-Spiel: Kriminelle und auch manche Unternehmen versuchen, | |
Lücken auszunutzen oder Regeln zu umgehen. Aber das ist kein Grund, auf | |
solche Vorschriften zu verzichten. Schließlich ist es auch im Interesse der | |
Unternehmen, dass Verbraucher:innen KI vertrauen und selbstbestimmt | |
über die Nutzung entscheiden können. Und das geht nicht, wenn die Industrie | |
einfach machen kann, was sie will. Und es null Transparenz gibt. | |
Es klingt aber trotzdem nicht nach einer großen Verbesserung. | |
Ist es aber. Der AI Act bringt schon deutliche Verbesserungen für | |
Verbraucher:innen. Zum Beispiel ist vorgeschrieben, dass | |
Verbraucher:innen sich beschweren können müssen. Also eine Behörde, an | |
die sich Betroffene wenden können, wenn sie zum Beispiel glauben, dass ein | |
KI-System gegen die Regeln verstößt. Diese Beschwerdestelle muss die | |
Bundesregierung innerhalb eines Jahres aufbauen und sie sollte möglichst | |
niedrigschwellig und unbürokratisch sein. Und Behörden dürfen KI-Systeme | |
auch überprüfen. Außerdem dürfen zivilgesellschaftliche Organisationen und | |
Verbraucherverbände klagen, wenn sie Verstöße gegen den AI Act sehen. | |
Wie soll so eine KI-Aufsichtsbehörde schlagkräftig werden, auch mit | |
Hinblick auf kompetentes Personal? | |
Der Markt an KI-Fachleuten ist tatsächlich sehr leergefegt – und der | |
öffentliche Dienst zahlt natürlich viel schlechter als die Industrie. Wenn | |
jetzt die zuständige KI-Aufsichtsbehörde und vielleicht noch andere | |
öffentliche Stellen KI-Expert:innen suchen, machen sie sich auch noch | |
gegenseitig Konkurrenz. Wir schlagen daher ein nationales Kompetenzzentrum | |
für KI und algorithmische Systeme vor. Das kann die Expertise bündeln und | |
Expert:innen an andere Behörden ausleihen. Wenn es dann zum Beispiel | |
einen großen Finanzskandal gibt, bei dem KI eine Rolle spielt, sind die | |
Fachleute bei der Bundesanstalt für Finanzdienstleistungsaufsicht, und wenn | |
was im [2][Medizinbereich] passiert, beim Bundesinstitut für Arzneimittel | |
und Medizinprodukte. | |
Sprechen wir über zwei Punkte, die während der Verhandlungen umstritten | |
waren. Das eine ist die Haftungsfrage: Wenn eine KI, zum Beispiel eine | |
medizinische Diagnose-KI, eine falsche Entscheidung trifft, muss jemand | |
dafür haften. Wie sieht es da aus? | |
Das ist ein Problem. Die Haftungsfrage wurde nämlich auf eine Richtlinie | |
ausgelagert – die liegt aber aktuell auf Eis. Wir hoffen, dass die nach der | |
EU-Wahl schnell kommt, aber mit anderen Inhalten, als dort bislang | |
drinstehen. Die bislang vorgesehenen Hürden sind viel zu hoch, da müssten | |
faktisch Verbraucher:innen beweisen, dass das KI-System fehlerhaft | |
war. Das ist nicht möglich. Wir brauchen eine Beweislastumkehr: Der | |
Hersteller des Systems muss beweisen, dass es keinen Fehler gab. | |
Dann gibt es bei der Haftung gerade ein Loch? | |
Ja. Es gibt natürlich die neue Produkthaftungsrichtline, die auch Software | |
umfasst. Aber in Bezug auf KI sind auch hier die Hürden zu hoch. Wir | |
brauchen also dringend eine Regelung, die es Verbraucher:innen | |
ermöglicht, eine Kompensation zu erhalten, wenn sie einen Schaden durch KI | |
erlitten haben. | |
[3][Ein weiterer Punkt, der in den Verhandlungen stark umstritten war: | |
Überwachung.] Wie können Menschen im öffentlichen Raum künftig überwacht | |
werden? | |
Das ist tatsächlich vertrackt. Grundsätzlich sagt der AI Act: Staatliche | |
Stellen dürfen keine biometrische Videoüberwachung im öffentlichen Raum | |
einsetzen. | |
Etwa Gesichtserkennung. | |
Genau. Es gibt aber zahlreiche Ausnahmen für die Strafverfolgung. Ein | |
anderes großes Problem ist: Es gibt eine riesige Ausnahme, denn private | |
Akteure dürfen biometrische Videoüberwachung machen. Zum Beispiel an | |
Tankstellen oder in Einkaufszentren können also künftig Kameras hängen, | |
hinter denen eine biometrische Überwachung steckt. Und das, obwohl bereits | |
in Sachen konventioneller Videoüberwachung Wildwuchs herrscht und jeder | |
macht, was er will. Verbraucher:innen sind dem weitgehend schutzlos | |
ausgeliefert. Beschweren Sie sich mal bei der Datenschutzbehörde über jede | |
Kamera, an der Sie vorbeilaufen – das ist ein Vollzeitjob. | |
Die EU-Mitgliedstaaten können biometrische Videoüberwachung durch Private | |
aber im nationalen Recht verbieten. | |
Genau, das ist möglich und es wäre sehr wichtig, dass Deutschland das | |
macht. | |
Haben Sie da schon Signale aus der Politik? | |
Bislang nicht – aber wir werben dafür und hoffen, dass gerade Akteure, | |
denen die Freiheitsrechte wichtig sind, hier mitziehen. | |
Wenn die Regeln schließlich wirksam werden, sind schon wieder ein paar | |
Jahre vergangen. Wird die Welt dann, in Bezug auf KI, nicht schon wieder | |
ganz anders aussehen? | |
Das ist gut möglich. Aber der AI Act bietet die Möglichkeit, dass die | |
EU-Kommission mit sogenannten delegierten Rechtsakten Anpassungen vornimmt. | |
Wenn dann zum Beispiel ein neues, gefährliches KI-System entwickelt wird, | |
dann ließe sich das zu den verbotenen Hochrisikosystemen einsortieren. | |
21 May 2024 | |
## LINKS | |
[1] /Werben-mit-virtuellen-Influencern/!5990820 | |
[2] /KI-und-die-fruehe-Krebserkennung/!6001312 | |
[3] /Deutschland-muss-KI-Regeln-umsetzen/!6007821 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Digitalisierung | |
Europäische Union | |
Verbraucherschutz | |
Internet | |
EU-Richtlinien | |
GNS | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Wahl-O-Mat | |
Schwerpunkt Künstliche Intelligenz | |
wochentaz | |
## ARTIKEL ZUM THEMA | |
„Meta AI“ Assistent: Training mit deinen Daten | |
Der Facebook- und Instagram-Konzern Meta will Daten von Nutzer:innen für | |
das Training von KI nutzen. Ein Datenschutzverein legt Beschwerde ein. | |
Vor Inkrafttreten der EU-Regeln: Werkzeugkoffer gegen KI-Auswüchse | |
Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher | |
Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt | |
Lücken. | |
Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz | |
Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt | |
eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist. | |
Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an | |
Der Europarat will die Menschenrechte vor einem Missbrauch durch KI | |
schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt | |
Kritik. | |
ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt | |
ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. | |
Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist. |