| # taz.de -- KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“ | |
| > Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann | |
| > Verbraucher:innen etwas davon mitkriegen werden, erklärt Experte | |
| > Miika Blinn. | |
| Bild: Die rechtliche Lage zu Videoüberwachung mit KI-Gesichtserkennung, hier b… | |
| taz: Herr Blinn, die neuen EU-Regeln für künstliche Intelligenz (KI) sind | |
| nun final beschlossen. Wann werden Verbraucher:innen etwas davon | |
| mitbekommen? | |
| Miika Blinn: Die ersten Vorschriften treten schon in einem halben Jahr in | |
| Kraft. Damit werden KI-Systeme mit nicht tolerierbarem Risiko verboten, zum | |
| Beispiel das Anlegen von Gesichtsdatenbanken mit Bildern aus dem Internet. | |
| Richtig etwas merken wird man spätestens in zwei Jahren. Dann müssen | |
| [1][zum Beispiel mit KI erzeugte Bilder], Videos oder Texte gekennzeichnet | |
| werden. Und: Firmen müssen dann auch kennzeichnen, wenn sie zum Beispiel in | |
| einem Service-Chat oder bei einer Telefon-Hotline KI einsetzen. Das kann | |
| zum Beispiel mit einem Siegel geschehen, mit einem Button, einem | |
| Wasserzeichen oder, bei der Hotline, einer kurzen Erklärung am Anfang des | |
| Anrufs. | |
| Es werden sich aber wie immer nicht alle daran halten. | |
| Ja, davon ist auszugehen. Schon heute ist es bei IT-Sicherheit ein | |
| Katz-und-Maus-Spiel: Kriminelle und auch manche Unternehmen versuchen, | |
| Lücken auszunutzen oder Regeln zu umgehen. Aber das ist kein Grund, auf | |
| solche Vorschriften zu verzichten. Schließlich ist es auch im Interesse der | |
| Unternehmen, dass Verbraucher:innen KI vertrauen und selbstbestimmt | |
| über die Nutzung entscheiden können. Und das geht nicht, wenn die Industrie | |
| einfach machen kann, was sie will. Und es null Transparenz gibt. | |
| Es klingt aber trotzdem nicht nach einer großen Verbesserung. | |
| Ist es aber. Der AI Act bringt schon deutliche Verbesserungen für | |
| Verbraucher:innen. Zum Beispiel ist vorgeschrieben, dass | |
| Verbraucher:innen sich beschweren können müssen. Also eine Behörde, an | |
| die sich Betroffene wenden können, wenn sie zum Beispiel glauben, dass ein | |
| KI-System gegen die Regeln verstößt. Diese Beschwerdestelle muss die | |
| Bundesregierung innerhalb eines Jahres aufbauen und sie sollte möglichst | |
| niedrigschwellig und unbürokratisch sein. Und Behörden dürfen KI-Systeme | |
| auch überprüfen. Außerdem dürfen zivilgesellschaftliche Organisationen und | |
| Verbraucherverbände klagen, wenn sie Verstöße gegen den AI Act sehen. | |
| Wie soll so eine KI-Aufsichtsbehörde schlagkräftig werden, auch mit | |
| Hinblick auf kompetentes Personal? | |
| Der Markt an KI-Fachleuten ist tatsächlich sehr leergefegt – und der | |
| öffentliche Dienst zahlt natürlich viel schlechter als die Industrie. Wenn | |
| jetzt die zuständige KI-Aufsichtsbehörde und vielleicht noch andere | |
| öffentliche Stellen KI-Expert:innen suchen, machen sie sich auch noch | |
| gegenseitig Konkurrenz. Wir schlagen daher ein nationales Kompetenzzentrum | |
| für KI und algorithmische Systeme vor. Das kann die Expertise bündeln und | |
| Expert:innen an andere Behörden ausleihen. Wenn es dann zum Beispiel | |
| einen großen Finanzskandal gibt, bei dem KI eine Rolle spielt, sind die | |
| Fachleute bei der Bundesanstalt für Finanzdienstleistungsaufsicht, und wenn | |
| was im [2][Medizinbereich] passiert, beim Bundesinstitut für Arzneimittel | |
| und Medizinprodukte. | |
| Sprechen wir über zwei Punkte, die während der Verhandlungen umstritten | |
| waren. Das eine ist die Haftungsfrage: Wenn eine KI, zum Beispiel eine | |
| medizinische Diagnose-KI, eine falsche Entscheidung trifft, muss jemand | |
| dafür haften. Wie sieht es da aus? | |
| Das ist ein Problem. Die Haftungsfrage wurde nämlich auf eine Richtlinie | |
| ausgelagert – die liegt aber aktuell auf Eis. Wir hoffen, dass die nach der | |
| EU-Wahl schnell kommt, aber mit anderen Inhalten, als dort bislang | |
| drinstehen. Die bislang vorgesehenen Hürden sind viel zu hoch, da müssten | |
| faktisch Verbraucher:innen beweisen, dass das KI-System fehlerhaft | |
| war. Das ist nicht möglich. Wir brauchen eine Beweislastumkehr: Der | |
| Hersteller des Systems muss beweisen, dass es keinen Fehler gab. | |
| Dann gibt es bei der Haftung gerade ein Loch? | |
| Ja. Es gibt natürlich die neue Produkthaftungsrichtline, die auch Software | |
| umfasst. Aber in Bezug auf KI sind auch hier die Hürden zu hoch. Wir | |
| brauchen also dringend eine Regelung, die es Verbraucher:innen | |
| ermöglicht, eine Kompensation zu erhalten, wenn sie einen Schaden durch KI | |
| erlitten haben. | |
| [3][Ein weiterer Punkt, der in den Verhandlungen stark umstritten war: | |
| Überwachung.] Wie können Menschen im öffentlichen Raum künftig überwacht | |
| werden? | |
| Das ist tatsächlich vertrackt. Grundsätzlich sagt der AI Act: Staatliche | |
| Stellen dürfen keine biometrische Videoüberwachung im öffentlichen Raum | |
| einsetzen. | |
| Etwa Gesichtserkennung. | |
| Genau. Es gibt aber zahlreiche Ausnahmen für die Strafverfolgung. Ein | |
| anderes großes Problem ist: Es gibt eine riesige Ausnahme, denn private | |
| Akteure dürfen biometrische Videoüberwachung machen. Zum Beispiel an | |
| Tankstellen oder in Einkaufszentren können also künftig Kameras hängen, | |
| hinter denen eine biometrische Überwachung steckt. Und das, obwohl bereits | |
| in Sachen konventioneller Videoüberwachung Wildwuchs herrscht und jeder | |
| macht, was er will. Verbraucher:innen sind dem weitgehend schutzlos | |
| ausgeliefert. Beschweren Sie sich mal bei der Datenschutzbehörde über jede | |
| Kamera, an der Sie vorbeilaufen – das ist ein Vollzeitjob. | |
| Die EU-Mitgliedstaaten können biometrische Videoüberwachung durch Private | |
| aber im nationalen Recht verbieten. | |
| Genau, das ist möglich und es wäre sehr wichtig, dass Deutschland das | |
| macht. | |
| Haben Sie da schon Signale aus der Politik? | |
| Bislang nicht – aber wir werben dafür und hoffen, dass gerade Akteure, | |
| denen die Freiheitsrechte wichtig sind, hier mitziehen. | |
| Wenn die Regeln schließlich wirksam werden, sind schon wieder ein paar | |
| Jahre vergangen. Wird die Welt dann, in Bezug auf KI, nicht schon wieder | |
| ganz anders aussehen? | |
| Das ist gut möglich. Aber der AI Act bietet die Möglichkeit, dass die | |
| EU-Kommission mit sogenannten delegierten Rechtsakten Anpassungen vornimmt. | |
| Wenn dann zum Beispiel ein neues, gefährliches KI-System entwickelt wird, | |
| dann ließe sich das zu den verbotenen Hochrisikosystemen einsortieren. | |
| 21 May 2024 | |
| ## LINKS | |
| [1] /Werben-mit-virtuellen-Influencern/!5990820 | |
| [2] /KI-und-die-fruehe-Krebserkennung/!6001312 | |
| [3] /Deutschland-muss-KI-Regeln-umsetzen/!6007821 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| Europäische Union | |
| Verbraucherschutz | |
| Internet | |
| EU-Richtlinien | |
| GNS | |
| wochentaz | |
| Gesichtserkennung | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Wahl-O-Mat | |
| Schwerpunkt Künstliche Intelligenz | |
| Fake News | |
| ## ARTIKEL ZUM THEMA | |
| Europäische KI-Verordnung: KI-Kängurus nur mit Wasserzeichen | |
| Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche | |
| Intelligenz ab August transparent machen. Die Industrie will andere Regeln | |
| aufweichen. | |
| Gesichtserkennung im Internet: Faeser will Fotofahndung erlauben | |
| Die Polizei soll öffentliche Fotos „biometrisch abgleichen“ dürfen, um | |
| Personen zu identifizieren. Wie genau, das lässt Faesers Gesetzentwurf | |
| offen. | |
| „Meta AI“ Assistent: Training mit deinen Daten | |
| Der Facebook- und Instagram-Konzern Meta will Daten von Nutzer:innen für | |
| das Training von KI nutzen. Ein Datenschutzverein legt Beschwerde ein. | |
| Vor Inkrafttreten der EU-Regeln: Werkzeugkoffer gegen KI-Auswüchse | |
| Verbände bereiten sich darauf vor, das neue EU-Recht zu Künstlicher | |
| Intellligenz durchzusetzen, welches in Kürze in Kraft tritt. Doch es gibt | |
| Lücken. | |
| Künstliche Intelligenz und Wahl-O-Mat: Linksgrün versiffte Intelligenz | |
| Ein Boulevardblatt hat herausgefunden: Die KI, die auf neutral tut, tickt | |
| eigentlich linksgrün! Warum das kein Skandal, sondern Grund zur Freude ist. | |
| Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an | |
| Der Europarat will die Menschenrechte vor einem Missbrauch durch KI | |
| schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt | |
| Kritik. | |
| ChatGPT-Identitätsklau: Wenn Software zu träumen beginnt | |
| ChatGPT habe ihm seine Identität geklaut, sagt Sebastian Schnitzenbaumer. | |
| Er will die KI-Firma verklagen. Ein Fall, der ins Grundsätzliche weist. |