# taz.de -- Europarat verhandelt Abkommen: KI für die Milliarden | |
> Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
> Die Konvention des Europarats würde Menschen auf mindestens drei | |
> Kontinenten betreffen. Doch es gibt auch Kritik. | |
Bild: Auch das ist KI: interaktives System zur Unterstützung für Gebärdenspr… | |
BERLIN taz | Der Vergleich klingt erst einmal gewagt: „KI-Systeme kann man | |
als neue Motoren der digitalen Welt betrachten“, sagte der Schweizer Ökonom | |
Thomas Schneider jüngst bei einer Diskussion der Unesco über künstliche | |
Intelligenz (KI). | |
Die Analogie: Während Motoren einst repetitive körperliche Tätigkeiten | |
automatisierten, werde KI repetitive kognitive Abläufe automatisieren. Und | |
ebenso wenig wie Motoren von einer einzelnen weltumspannenden Gesetzgebung | |
oder Vereinbarung reguliert werden, werde das bei KI-Systemen passieren. | |
Schneider ist nicht nur Ökonom. Er war unter anderem einige Jahre in einer | |
leitenden Position bei der ICANN, der Organisation der | |
Internetselbstverwaltung. Und nun ist er Vorsitzender des KI-Ausschusses | |
des Europarats – und in dieser Funktion eine der Schlüsselpersonen, wenn es | |
um neue Regeln für die Technologie geht. | |
Denn die [1][EU ist mit ihrem AI Act] – zu dem sich das Europaparlament im | |
Juni positioniert hat – nicht die einzige Instanz, die dabei ist, ein | |
Regelwerk für KI zu erarbeiten. Auch die Mitgliedstaaten des Europarats | |
befinden sich derzeit in Verhandlungen über ein multilaterales | |
Rahmenabkommen, eine KI-Konvention. Und neben diesen 46 Staaten sind | |
weitere Nationen an den Verhandlungen beteiligt, unter anderem Mexiko, | |
Israel, Japan und die USA. Damit könnte die Konvention die KI-Regulierung | |
werden, die die größte Zahl an Menschen betrifft. | |
Die Forderungen nach Regeln für künstliche Intelligenz sind in den | |
vergangenen Wochen und Monaten immer lauter geworden. Zwar sind | |
KI-Anwendungen schon seit Jahren im Alltag vieler Techniknutzer:innen | |
integriert, zum Beispiel in manchen Spamfiltern für E-Mails oder in | |
verschiedenen Apps für die Fotobearbeitung. Aber eine Ahnung des | |
disruptiven Potenzials wurde erst durch die Veröffentlichung von Bild- und | |
Textgeneratoren wie ChatGPT oder Midjourney Ende vergangenen Jahres | |
deutlich. | |
## Zahlreiche Gefahren | |
Seitdem reißen die [2][Hinweise auf die Gefahren] nicht ab: von der | |
Möglichkeit, massenhaft Fake News und Propaganda zu erstellen, bis zum | |
Problem von unausgewogenen Trainingsdaten und daraus resultierenden | |
Verzerrungen. Regulierung soll es richten, am besten möglichst umfassend | |
und multilateral. Aber wie genau? | |
Der Ansatz der KI-Konvention ist ein umarmender und distanzierender | |
zugleich: „Es muss ein gemeinsamer Rahmen sein, den jeder einzelne Staat an | |
sein eigenes juristisches System anpassen kann“, skizziert Schneider das | |
Ziel. | |
So würden in dem Rahmen etwa Pflichten zur Folgeabschätzung der Systeme | |
oder zu Einspruchsmöglichkeiten von Betroffenen festgelegt und | |
Anforderungen an die Umsetzung der Konvention, beispielsweise mit | |
Aufsichtsbehörden. Wie diese dann aber ausgestaltet werden, sei Sache der | |
einzelnen Staaten, die den Rahmen in die Praxis übertragen. Dementsprechend | |
werden auch Strafen für Verstöße im nationalen Recht geregelt – und somit | |
uneinheitlich ausfallen. | |
Ein [3][erstes Dokument], auf Basis dessen die beteiligten Staaten | |
verhandeln, hatte das Sekretariat des KI-Ausschusses Anfang des Jahres | |
veröffentlicht. Hier werden die groben Linien skizziert, die eine | |
Konvention eines Tages ausmachen könnten. Etwa die Grundprinzipien, denen | |
die Entwicklung und der Einsatz von KI-Systemen folgen muss. Demnach darf | |
eine Software nicht diskriminieren, sie muss Anforderungen an Transparenz | |
und Datenschutz erfüllen und darf keine Menschen- und Freiheitsrechte | |
verletzen. | |
„Es ist ein sehr wichtiges Vorhaben, Menschenrechte, Demokratie und | |
Rechtsstaatlichkeit, also die Werte, denen sich der Europarat verschrieben | |
hat, mit einer KI-Konvention zu schützen“, sagt Angela Müller, KI-Expertin | |
bei der NGO Algorithmwatch. Sie sieht die Arbeit des Europarats nicht als | |
Konkurrenz zu der EU-Regulierung, sondern als Ergänzung. Schließlich sind | |
mehr Staaten beteiligt. Und während die EU per Definition eine stärkere | |
Binnenmarktfokussierung habe, habe der Europarat mit seinem | |
wertezentrierten Ansatz eine andere Herangehensweise. Doch sie sieht auch | |
Gefahren. | |
Die erste manifestierte sich schon zu Beginn des Jahres. Da beschloss der | |
Ausschuss, dass es künftig zwei parallele Verhandlungsgruppen geben wird: | |
Eine, in der die beteiligten Staaten an dem konkreten Papier arbeiten. Und | |
eine zweite, in der auch zivilgesellschaftliche Organisationen vertreten | |
sind. Das heißt umgekehrt: Diese haben keinen unmittelbaren Einfluss mehr | |
auf den Verhandlungsprozess, sondern immer erst im Nachhinein – also etwa, | |
wenn etwas aus den Sitzungen nach außen dringt oder ein Zwischenstand | |
veröffentlicht wird. | |
## Kritik von NGOs | |
Mehrere NGOs, darunter Algorithmwatch und das Center for AI and Digital | |
Policy, eine nichtkommerzielle Forschungsorganisation, kritisieren das in | |
einem Statement, das am Dienstag veröffentlicht wird. Die Aufspaltung in | |
zwei Gruppen „untergräbt die Transparenz und Rechenschaftspflicht des | |
Europarates und steht im Widerspruch zur gängigen Praxis“, heißt es darin. | |
Der Europarat ließ eine Anfrage der taz zu der Kritik an dem Verfahren | |
unbeantwortet. | |
Die zweite Gefahr: eine mögliche Abwägung von Rechten. „In den | |
Verhandlungen kommen natürlich die Interessen der Nationalstaaten zum | |
Tragen“, sagt Müller. Ihre Befürchtung: Deren Argumente von | |
wirtschaftlichen über militärische Interessen bis hin zum Allzweckargument | |
der Innovationsförderung könnten am Ende in einem Verhandlungstopf mit den | |
Grundwerten landen. „Menschenrechte müssen den Rahmen für die Regulierung | |
vorgeben und dürfen nicht zu Verhandlungsmasse werden“, fordert Müller. | |
Die dritte Gefahr, die Müller sieht: ein Aufweichen der Regeln bei der | |
Umsetzung in den einzelnen Staaten, die sie ratifizieren. „Es ist wichtig, | |
dass es eine Konvention mit Zähnen wird“, sagt die Expertin daher. Ob das | |
der Fall ist, werde sich an mehreren Faktoren zeigen: Gibt es verbindliche | |
Transparenzregeln für den Einsatz von KI? Können sich Betroffene wirksam | |
gegen KI-basierte Entscheidungen wehren? Können Personen für den Einsatz | |
von KI und die mittels der Software getroffenen Entscheidungen in die | |
Verantwortung genommen werden? Diese Fragen will Müller mit Ja beantwortet | |
sehen. | |
Die nächsten Treffen der Verhandlungsgruppen sind derzeit für Herbst | |
anberaumt. Wann die KI-Konvention tatsächlich fertig ist, dürfte vom | |
Fortgang der Verhandlungen beim AI Act der EU abhängen. Nachdem das | |
Parlament dazu seine Position beschlossen hat, geht es nun in die | |
Verhandlungen mit EU-Kommission und Rat, in dem die Mitgliedstaaten | |
vertreten sind. Eine Einigung ist bis Ende des Jahres geplant. | |
Doch auch hier werden die teilweise widerstreitenden Interessen der | |
Nationalstaaten zu Konflikten führen. Absehbar ist das bereits beim Thema | |
KI im Zusammenhang mit der inneren Sicherheit. Ein Punkt also, der auch bei | |
der KI-Konvention noch für Diskussion sorgen könnte. | |
4 Jul 2023 | |
## LINKS | |
[1] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
[2] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
[3] https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-publ… | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Technologie | |
Digitalisierung | |
GNS | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
DSGVO | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Rassismus | |
## ARTIKEL ZUM THEMA | |
Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an | |
Der Europarat will die Menschenrechte vor einem Missbrauch durch KI | |
schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt | |
Kritik. | |
Diskriminierung durch KI: Der Algorithmus sagt Nein | |
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
TÜV für Künstliche Intelligenz: Die Neuen im Newsroom | |
Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. | |
Auch der Journalismus muss seine Grundsätze mal wieder updaten. | |
EU will Datenschutz besser durchsetzen: Mehr Harmonie, weniger Warten | |
Es hapert an der grenzübergreifenden Umsetzung der | |
Datenschutzgrundverordnung in der EU. Die Kommission setzt bei der Reform | |
auf einfache Mittel. | |
Neue Musk-Entscheidung bei Twitter: Achtung, Limit! | |
Seit Samstag können nicht mehr alle lesen, was auf Twitter so geschrieben | |
wird. Besitzer Elon Musk liefert dafür eine simple Erklärung. | |
EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste | |
Regulierung von KI abstimmen. Expert:innen fordern schon | |
Nachbesserungen. | |
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. |