| # taz.de -- Vor finaler Abstimmung: Kann die Welt KI bändigen? | |
| > Diese Woche werden zwei entscheidende Weichen in Sachen KI gestellt. Doch | |
| > NGOs und Wissenschaftler:innen sehen problematische Parallelen. | |
| Bild: Protestaktion gegen KI-Gesichtserkennung anlässlich eines Pilotprojekts … | |
| Berlin taz | In diesen Tagen setzen sich in Straßburg die | |
| Vertreter:innen des Europarats und ausgewählte Nichtmitglieder aus | |
| Staaten wie USA, Japan und Kanada zusammen, um eines der größten Abkommen | |
| zu künstlicher Intelligenz zu verhandeln: die [1][KI-Konvention des | |
| Europarats]. Im Zentrum die Frage: Wie soll und kann die Technologie | |
| verbindlich und trotzdem global möglichst breit reguliert werden? | |
| Die Verhandlungen im Europarat standen bislang im Schatten der EU. [2][Denn | |
| auch diese hat ein Regelwerk für KI erarbeitet]. Diese Woche Mittwoch | |
| stimmt das Parlament abschließend darüber ab. Das Votum gilt als Formsache | |
| – nachdem es in den vergangenen Monaten selbst nach der offiziellen | |
| Einigung von EU-Kommission, Parlament und Mitgliedstaaten im Dezember noch | |
| eine ganze Reihe an Konflikten gab. | |
| Im Zentrum standen dabei die Vorgaben für die Wirtschaft – hier hatte unter | |
| anderem die [3][FDP auf den letzten Metern Bedenken] angemeldet – und die | |
| Auswirkungen auf Bürgerrechte. Letztlich haben sich die | |
| [4][EU-Mitgliedstaaten mit ihrem Interesse an Überwachungsaktivitäten] | |
| durchgesetzt, zum Beispiel, was die biometrische Gesichtserkennung angeht. | |
| Die neuen EU-Regeln teilen KI-Systeme in Risikoklassen ein und sehen je | |
| nach Einstufung strengere oder mildere Vorgaben vor. Gelten sollen sie ab | |
| Frühjahr 2026 – für die Übergangszeit hofft die EU-Kommission auf | |
| freiwillige Zusagen der Unternehmen. | |
| Während der AI Act mit den 27 EU-Mitgliedstaaten schon als bislang größtes | |
| verbindliches Regelwerk für KI gilt, könnte der Europarat es mit seiner | |
| Konvention noch toppen: Kommt es zu einer Einigung, würde sie nicht nur die | |
| 46 Staaten des Europarates betreffen, sondern auch weitere an den | |
| Verhandlungen beteiligte Länder, etwa Mexiko, Japan und die USA. Damit | |
| könnte die Konvention die KI-Regulierung werden, die die größte Zahl an | |
| Menschen betrifft. | |
| Im Unterschied zum AI Act der EU soll die Konvention zwar Regeln vorgeben, | |
| aber weniger ins Detail gehen: Vielmehr soll sie einen Rahmen setzen, den | |
| die Staaten jeweils an ihr eigenes rechtliches System anpassen. Zum | |
| Beispiel könnten Einspruchsmöglichkeiten für Betroffene von | |
| KI-Entscheidungen festgeschrieben werden – wie diese dann umgesetzt werden | |
| und welche Strafen drohen, bliebe den Nationalstaaten überlassen. | |
| ## Spielraum und Schlupflöcher | |
| Doch zu der abschließenden Verhandlungsrunde warnen Vertreter:innen der | |
| Zivilgesellschaft: Die Pläne, wie sie sich derzeit abzeichnen, würden den | |
| Staaten viel Spielraum lassen, die Technologieunternehmen milde bis gar | |
| nicht zu regulieren. „Das würde ein gefährliches Signal senden: Das erste | |
| internationale Regelwerk zu KI könnte so den Konzernen einen | |
| Freifahrtschein erteilen, KI ihren eigenen Interessen gemäß zu entwickeln | |
| und einzusetzen“, kritisiert Angela Müller von der Bürgerrechtsorganisation | |
| AlgorithmWatch. | |
| Und auch eines der Schlupflöcher aus dem AI Act droht die Konvention zu | |
| reproduzieren: Breite Ausnahmen für die nationale Sicherheit. So stehen im | |
| Entwurf für die KI-Konvention im Abschnitt zum Thema nationale Sicherheit | |
| verschiedene Formulierungsoptionen. Eine davon: „Eine Vertragspartei ist | |
| nicht verpflichtet, dieses Übereinkommen auf die Ausgestaltung, die | |
| Entwicklung, die Verwendung oder die Außerbetriebnahme von Systemen der | |
| künstlichen Intelligenz zum Schutz wesentlicher nationaler | |
| Sicherheitsinteressen […] anzuwenden …“. | |
| Auch Aktivitäten im Zusammenhang mit dem Einsatz von Geheimdiensten im | |
| Ausland und Spionageabwehr müssten möglich sein, wenn diese „im Einklang | |
| mit geltendem Völkerrecht“ durchgeführt würden. Das könnte Türen öffnen… | |
| den Einsatz von KI, etwa zur Gesichtserkennung im öffentlichen Raum oder im | |
| Zusammenhang mit Grenzschutzinteressen. | |
| Bürgerrechtsorganisationen und zahlreiche Wissenschaftler:innen warnen | |
| daher in einem offenen Brief an die verhandelnden Staaten vor einer | |
| Verwässerung der Rechte von Bürger:innen und Nutzer:innen. „Eine | |
| ausgehöhlte Konvention wird nur wenig ernsthaften Schutz für Personen vor | |
| mächtigen KI-Systemen bieten, die anfällig sind für Voreingenommenheit, | |
| menschliche Manipulation und die Destabilisierung der demokratischen | |
| Institutionen“, heißt es in dem Brief, den unter anderem die | |
| Oxford-Professorin Sandra Wachter und der ehemalige | |
| Bundesdatenschutzbeauftragte Peter Schaar unterzeichnet haben. | |
| Die Regeln müssten gleichermaßen für den öffentlichen und privaten Sektor | |
| gelten und dürften keine Schlupflöcher für Zwecke der nationalen Sicherheit | |
| oder Verteidigung zulassen. | |
| 11 Mar 2024 | |
| ## LINKS | |
| [1] /Europarat-verhandelt-Abkommen/!5941771 | |
| [2] /FAQ-zum-neuen-AI-Act-der-EU/!5991054 | |
| [3] /EU-Gesetz-zur-Kuenstlichen-Intelligenz/!5988014 | |
| [4] /Kuenstliche-Intelligenz/!5982854 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| Bürgerrechte | |
| Europäische Union | |
| Europarat | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Überwachung | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an | |
| Der Europarat will die Menschenrechte vor einem Missbrauch durch KI | |
| schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt | |
| Kritik. | |
| Philosophin über Sicherheit im Netz: „Mündigkeit ist Übungssache“ | |
| Ein innerliches „Kann ich doch eh nicht“ hält viele davon ab, sich mit IT | |
| zu beschäftigen. Expertin Leena Simon erklärt, wo jede:r anfangen kann. | |
| Umgang mit künstlicher Intelligenz: Akzeptanz braucht Transparenz | |
| KI bietet Chancen. Um einen guten Umgang mit ihr zu finden, muss es noch | |
| viel mehr Transparenz über ihren Einsatz und ihre Risiken geben. | |
| Gesetz zur künstlichen Intelligenz: Neue Technologie, neue Überwachung | |
| Der AI Act ist beschlossen. Das überwachungs- und wirtschaftsfreundliche | |
| Ergebnis ist kein Zufall. Doch es ist gut, dass das Regelwerk jetzt | |
| durchkam. | |
| FAQ zum neuen AI Act der EU: KI bekommt Regeln | |
| Künstliche Intelligenz hilft bei der Überwachung, aber auch bei der | |
| Verbreitung von Hass und Fake News. Die EU schafft nun weltweit einmalig | |
| Recht. | |
| EU-Gesetz zur Künstlichen Intelligenz: Zittern bei KI-Regulierung | |
| Die Bundesregierung zögert beim Ja zum EU-Gesetz zur Künstlichen | |
| Intelligenz. Das könnte das weltweite Vorreiterprojekt zum Scheitern | |
| bringen. | |
| Künstliche Intelligenz: Regulierung mit mehr Überwachung | |
| Der frische Kompromiss zu künstlicher Intelligenz wird gerade schon wieder | |
| aufgeweicht. Bürgerrechtsorganisationen sind verärgert. | |
| EU-Einigung auf KI-Gesetz: Mit Überwachung ins KI-Zeitalter | |
| Der AI Act steht. Was das mit Schlafmangel, biometrischer Überwachung und | |
| der Zuckerlobby zu tun hat – und warum es am Ende doch aufs Geld ankommt. |