Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“
> Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann
> Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte
> Miika Blinn.
Bild: Die rechtliche Lage zu Videoüberwachung mit KI-Gesichtserkennung, hier b…
taz: Herr Blinn, die neuen EU-Regeln für künstliche Intelligenz (KI) sind
nun final beschlossen. Wann werden Verbraucher:innen etwas davon
mitbekommen?
Miika Blinn: Die ersten Vorschriften treten schon in einem halben Jahr in
Kraft. Damit werden KI-Systeme mit nicht tolerierbarem Risiko verboten, zum
Beispiel das Anlegen von Gesichtsdatenbanken mit Bildern aus dem Internet.
Richtig etwas merken wird man spätestens in zwei Jahren. Dann müssen
[1][zum Beispiel mit KI erzeugte Bilder], Videos oder Texte gekennzeichnet
werden. Und: Firmen müssen dann auch kennzeichnen, wenn sie zum Beispiel in
einem Service-Chat oder bei einer Telefon-Hotline KI einsetzen. Das kann
zum Beispiel mit einem Siegel geschehen, mit einem Button, einem
Wasserzeichen oder, bei der Hotline, einer kurzen Erklärung am Anfang des
Anrufs.
Es werden sich aber wie immer nicht alle daran halten.
Ja, davon ist auszugehen. Schon heute ist es bei IT-Sicherheit ein
Katz-und-Maus-Spiel: Kriminelle und auch manche Unternehmen versuchen,
Lücken auszunutzen oder Regeln zu umgehen. Aber das ist kein Grund, auf
solche Vorschriften zu verzichten. Schließlich ist es auch im Interesse der
Unternehmen, dass Verbraucher:innen KI vertrauen und selbstbestimmt
über die Nutzung entscheiden können. Und das geht nicht, wenn die Industrie
einfach machen kann, was sie will. Und es null Transparenz gibt.
Es klingt aber trotzdem nicht nach einer großen Verbesserung.
Ist es aber. Der AI Act bringt schon deutliche Verbesserungen für
Verbraucher:innen. Zum Beispiel ist vorgeschrieben, dass
Verbraucher:innen sich beschweren können müssen. Also eine Behörde, an
die sich Betroffene wenden können, wenn sie zum Beispiel glauben, dass ein
KI-System gegen die Regeln verstößt. Diese Beschwerdestelle muss die
Bundesregierung innerhalb eines Jahres aufbauen und sie sollte möglichst
niedrigschwellig und unbürokratisch sein. Und Behörden dürfen KI-Systeme
auch überprüfen. Außerdem dürfen zivilgesellschaftliche Organisationen und
Verbraucherverbände klagen, wenn sie Verstöße gegen den AI Act sehen.
Wie soll so eine KI-Aufsichtsbehörde schlagkräftig werden, auch mit
Hinblick auf kompetentes Personal?
Der Markt an KI-Fachleuten ist tatsächlich sehr leergefegt – und der
öffentliche Dienst zahlt natürlich viel schlechter als die Industrie. Wenn
jetzt die zuständige KI-Aufsichtsbehörde und vielleicht noch andere
öffentliche Stellen KI-Expert:innen suchen, machen sie sich auch noch
gegenseitig Konkurrenz. Wir schlagen daher ein nationales Kompetenzzentrum
für KI und algorithmische Systeme vor. Das kann die Expertise bündeln und
Expert:innen an andere Behörden ausleihen. Wenn es dann zum Beispiel
einen großen Finanzskandal gibt, bei dem KI eine Rolle spielt, sind die
Fachleute bei der Bundesanstalt für Finanzdienstleistungsaufsicht, und wenn
was im [2][Medizinbereich] passiert, beim Bundesinstitut für Arzneimittel
und Medizinprodukte.
Sprechen wir über zwei Punkte, die während der Verhandlungen umstritten
waren. Das eine ist die Haftungsfrage: Wenn eine KI, zum Beispiel eine
medizinische Diagnose-KI, eine falsche Entscheidung trifft, muss jemand
dafür haften. Wie sieht es da aus?
Das ist ein Problem. Die Haftungsfrage wurde nämlich auf eine Richtlinie
ausgelagert – die liegt aber aktuell auf Eis. Wir hoffen, dass die nach der
EU-Wahl schnell kommt, aber mit anderen Inhalten, als dort bislang
drinstehen. Die bislang vorgesehenen Hürden sind viel zu hoch, da müssten
faktisch Verbraucher:innen beweisen, dass das KI-System fehlerhaft
war. Das ist nicht möglich. Wir brauchen eine Beweislastumkehr: Der
Hersteller des Systems muss beweisen, dass es keinen Fehler gab.
Dann gibt es bei der Haftung gerade ein Loch?
Ja. Es gibt natürlich die neue Produkthaftungsrichtline, die auch Software
umfasst. Aber in Bezug auf KI sind auch hier die Hürden zu hoch. Wir
brauchen also dringend eine Regelung, die es Verbraucher:innen
ermöglicht, eine Kompensation zu erhalten, wenn sie einen Schaden durch KI
erlitten haben.
[3][Ein weiterer Punkt, der in den Verhandlungen stark umstritten war:
Überwachung.] Wie können Menschen im öffentlichen Raum künftig überwacht
werden?
Das ist tatsächlich vertrackt. Grundsätzlich sagt der AI Act: Staatliche
Stellen dürfen keine biometrische Videoüberwachung im öffentlichen Raum
einsetzen.
Etwa Gesichtserkennung.
Genau. Es gibt aber zahlreiche Ausnahmen für die Strafverfolgung. Ein
anderes großes Problem ist: Es gibt eine riesige Ausnahme, denn private
Akteure dürfen biometrische Videoüberwachung machen. Zum Beispiel an
Tankstellen oder in Einkaufszentren können also künftig Kameras hängen,
hinter denen eine biometrische Überwachung steckt. Und das, obwohl bereits
in Sachen konventioneller Videoüberwachung Wildwuchs herrscht und jeder
macht, was er will. Verbraucher:innen sind dem weitgehend schutzlos
ausgeliefert. Beschweren Sie sich mal bei der Datenschutzbehörde über jede
Kamera, an der Sie vorbeilaufen – das ist ein Vollzeitjob.
Die EU-Mitgliedstaaten können biometrische Videoüberwachung durch Private
aber im nationalen Recht verbieten.
Genau, das ist möglich und es wäre sehr wichtig, dass Deutschland das
macht.
Haben Sie da schon Signale aus der Politik?
Bislang nicht – aber wir werben dafür und hoffen, dass gerade Akteure,
denen die Freiheitsrechte wichtig sind, hier mitziehen.
Wenn die Regeln schließlich wirksam werden, sind schon wieder ein paar
Jahre vergangen. Wird die Welt dann, in Bezug auf KI, nicht schon wieder
ganz anders aussehen?
Das ist gut möglich. Aber der AI Act bietet die Möglichkeit, dass die
EU-Kommission mit sogenannten delegierten Rechtsakten Anpassungen vornimmt.
Wenn dann zum Beispiel ein neues, gefährliches KI-System entwickelt wird,
dann ließe sich das zu den verbotenen Hochrisikosystemen einsortieren.
21 May 2024
## LINKS
[1] /Werben-mit-virtuellen-Influencern/!5990820
[2] /KI-und-die-fruehe-Krebserkennung/!6001312
[3] /Deutschland-muss-KI-Regeln-umsetzen/!6007821
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Europäische Union
Verbraucherschutz
Internet
EU-Richtlinien
GNS
Gesichtserkennung
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Wahl-O-Mat
Schwerpunkt Künstliche Intelligenz
Fake News
## ARTIKEL ZUM THEMA
Gesichtserkennung im Internet: Faeser will Fotofahndung erlauben
Die Polizei soll öffentliche Fotos „biometrisch abgleichen“ dürfen, um
Personen zu identifizieren. Wie genau, das lässt Faesers Gesetzentwurf
offen.
„Meta AI“ Assistent: Training mit deinen Daten
Der Facebook- und Instagram-Konzern Meta will Daten von Nutzer:innen für
das Training von KI nutzen. Ein Datenschutzverein legt Beschwerde ein.
Vor Inkrafttreten der EU-Regeln: Werkzeugkoffer gegen KI-Auswüchse
Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher
Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt
Lücken.
Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz
Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt
eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist.
Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an
Der Europarat will die Menschenrechte vor einem Missbrauch durch KI
schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt
Kritik.
ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt
ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer.
Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.