| # taz.de -- Europarat verhandelt Abkommen: KI für die Milliarden | |
| > Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
| > Die Konvention des Europarats würde Menschen auf mindestens drei | |
| > Kontinenten betreffen. Doch es gibt auch Kritik. | |
| Bild: Auch das ist KI: interaktives System zur Unterstützung für Gebärdenspr… | |
| Berlin taz | Der Vergleich klingt erst einmal gewagt: „KI-Systeme kann man | |
| als neue Motoren der digitalen Welt betrachten“, sagte der Schweizer Ökonom | |
| Thomas Schneider jüngst bei einer Diskussion der Unesco über künstliche | |
| Intelligenz (KI). | |
| Die Analogie: Während Motoren einst repetitive körperliche Tätigkeiten | |
| automatisierten, werde KI repetitive kognitive Abläufe automatisieren. Und | |
| ebenso wenig wie Motoren von einer einzelnen weltumspannenden Gesetzgebung | |
| oder Vereinbarung reguliert werden, werde das bei KI-Systemen passieren. | |
| Schneider ist nicht nur Ökonom. Er war unter anderem einige Jahre in einer | |
| leitenden Position bei der ICANN, der Organisation der | |
| Internetselbstverwaltung. Und nun ist er Vorsitzender des KI-Ausschusses | |
| des Europarats – und in dieser Funktion eine der Schlüsselpersonen, wenn es | |
| um neue Regeln für die Technologie geht. | |
| Denn die [1][EU ist mit ihrem AI Act] – zu dem sich das Europaparlament im | |
| Juni positioniert hat – nicht die einzige Instanz, die dabei ist, ein | |
| Regelwerk für KI zu erarbeiten. Auch die Mitgliedstaaten des Europarats | |
| befinden sich derzeit in Verhandlungen über ein multilaterales | |
| Rahmenabkommen, eine KI-Konvention. Und neben diesen 46 Staaten sind | |
| weitere Nationen an den Verhandlungen beteiligt, unter anderem Mexiko, | |
| Israel, Japan und die USA. Damit könnte die Konvention die KI-Regulierung | |
| werden, die die größte Zahl an Menschen betrifft. | |
| Die Forderungen nach Regeln für künstliche Intelligenz sind in den | |
| vergangenen Wochen und Monaten immer lauter geworden. Zwar sind | |
| KI-Anwendungen schon seit Jahren im Alltag vieler Techniknutzer:innen | |
| integriert, zum Beispiel in manchen Spamfiltern für E-Mails oder in | |
| verschiedenen Apps für die Fotobearbeitung. Aber eine Ahnung des | |
| disruptiven Potenzials wurde erst durch die Veröffentlichung von Bild- und | |
| Textgeneratoren wie ChatGPT oder Midjourney Ende vergangenen Jahres | |
| deutlich. | |
| ## Zahlreiche Gefahren | |
| Seitdem reißen die [2][Hinweise auf die Gefahren] nicht ab: von der | |
| Möglichkeit, massenhaft Fake News und Propaganda zu erstellen, bis zum | |
| Problem von unausgewogenen Trainingsdaten und daraus resultierenden | |
| Verzerrungen. Regulierung soll es richten, am besten möglichst umfassend | |
| und multilateral. Aber wie genau? | |
| Der Ansatz der KI-Konvention ist ein umarmender und distanzierender | |
| zugleich: „Es muss ein gemeinsamer Rahmen sein, den jeder einzelne Staat an | |
| sein eigenes juristisches System anpassen kann“, skizziert Schneider das | |
| Ziel. | |
| So würden in dem Rahmen etwa Pflichten zur Folgeabschätzung der Systeme | |
| oder zu Einspruchsmöglichkeiten von Betroffenen festgelegt und | |
| Anforderungen an die Umsetzung der Konvention, beispielsweise mit | |
| Aufsichtsbehörden. Wie diese dann aber ausgestaltet werden, sei Sache der | |
| einzelnen Staaten, die den Rahmen in die Praxis übertragen. Dementsprechend | |
| werden auch Strafen für Verstöße im nationalen Recht geregelt – und somit | |
| uneinheitlich ausfallen. | |
| Ein [3][erstes Dokument], auf Basis dessen die beteiligten Staaten | |
| verhandeln, hatte das Sekretariat des KI-Ausschusses Anfang des Jahres | |
| veröffentlicht. Hier werden die groben Linien skizziert, die eine | |
| Konvention eines Tages ausmachen könnten. Etwa die Grundprinzipien, denen | |
| die Entwicklung und der Einsatz von KI-Systemen folgen muss. Demnach darf | |
| eine Software nicht diskriminieren, sie muss Anforderungen an Transparenz | |
| und Datenschutz erfüllen und darf keine Menschen- und Freiheitsrechte | |
| verletzen. | |
| „Es ist ein sehr wichtiges Vorhaben, Menschenrechte, Demokratie und | |
| Rechtsstaatlichkeit, also die Werte, denen sich der Europarat verschrieben | |
| hat, mit einer KI-Konvention zu schützen“, sagt Angela Müller, KI-Expertin | |
| bei der NGO Algorithmwatch. Sie sieht die Arbeit des Europarats nicht als | |
| Konkurrenz zu der EU-Regulierung, sondern als Ergänzung. Schließlich sind | |
| mehr Staaten beteiligt. Und während die EU per Definition eine stärkere | |
| Binnenmarktfokussierung habe, habe der Europarat mit seinem | |
| wertezentrierten Ansatz eine andere Herangehensweise. Doch sie sieht auch | |
| Gefahren. | |
| Die erste manifestierte sich schon zu Beginn des Jahres. Da beschloss der | |
| Ausschuss, dass es künftig zwei parallele Verhandlungsgruppen geben wird: | |
| Eine, in der die beteiligten Staaten an dem konkreten Papier arbeiten. Und | |
| eine zweite, in der auch zivilgesellschaftliche Organisationen vertreten | |
| sind. Das heißt umgekehrt: Diese haben keinen unmittelbaren Einfluss mehr | |
| auf den Verhandlungsprozess, sondern immer erst im Nachhinein – also etwa, | |
| wenn etwas aus den Sitzungen nach außen dringt oder ein Zwischenstand | |
| veröffentlicht wird. | |
| ## Kritik von NGOs | |
| Mehrere NGOs, darunter Algorithmwatch und das Center for AI and Digital | |
| Policy, eine nichtkommerzielle Forschungsorganisation, kritisieren das in | |
| einem Statement, das am Dienstag veröffentlicht wird. Die Aufspaltung in | |
| zwei Gruppen „untergräbt die Transparenz und Rechenschaftspflicht des | |
| Europarates und steht im Widerspruch zur gängigen Praxis“, heißt es darin. | |
| Der Europarat ließ eine Anfrage der taz zu der Kritik an dem Verfahren | |
| unbeantwortet. | |
| Die zweite Gefahr: eine mögliche Abwägung von Rechten. „In den | |
| Verhandlungen kommen natürlich die Interessen der Nationalstaaten zum | |
| Tragen“, sagt Müller. Ihre Befürchtung: Deren Argumente von | |
| wirtschaftlichen über militärische Interessen bis hin zum Allzweckargument | |
| der Innovationsförderung könnten am Ende in einem Verhandlungstopf mit den | |
| Grundwerten landen. „Menschenrechte müssen den Rahmen für die Regulierung | |
| vorgeben und dürfen nicht zu Verhandlungsmasse werden“, fordert Müller. | |
| Die dritte Gefahr, die Müller sieht: ein Aufweichen der Regeln bei der | |
| Umsetzung in den einzelnen Staaten, die sie ratifizieren. „Es ist wichtig, | |
| dass es eine Konvention mit Zähnen wird“, sagt die Expertin daher. Ob das | |
| der Fall ist, werde sich an mehreren Faktoren zeigen: Gibt es verbindliche | |
| Transparenzregeln für den Einsatz von KI? Können sich Betroffene wirksam | |
| gegen KI-basierte Entscheidungen wehren? Können Personen für den Einsatz | |
| von KI und die mittels der Software getroffenen Entscheidungen in die | |
| Verantwortung genommen werden? Diese Fragen will Müller mit Ja beantwortet | |
| sehen. | |
| Die nächsten Treffen der Verhandlungsgruppen sind derzeit für Herbst | |
| anberaumt. Wann die KI-Konvention tatsächlich fertig ist, dürfte vom | |
| Fortgang der Verhandlungen beim AI Act der EU abhängen. Nachdem das | |
| Parlament dazu seine Position beschlossen hat, geht es nun in die | |
| Verhandlungen mit EU-Kommission und Rat, in dem die Mitgliedstaaten | |
| vertreten sind. Eine Einigung ist bis Ende des Jahres geplant. | |
| Doch auch hier werden die teilweise widerstreitenden Interessen der | |
| Nationalstaaten zu Konflikten führen. Absehbar ist das bereits beim Thema | |
| KI im Zusammenhang mit der inneren Sicherheit. Ein Punkt also, der auch bei | |
| der KI-Konvention noch für Diskussion sorgen könnte. | |
| 4 Jul 2023 | |
| ## LINKS | |
| [1] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
| [2] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
| [3] https://rm.coe.int/cai-2023-01-revised-zero-draft-framework-convention-publ… | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Technologie | |
| Digitalisierung | |
| GNS | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Pressefreiheit | |
| DSGVO | |
| Twitter / X | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Rassismus | |
| ## ARTIKEL ZUM THEMA | |
| Kritik an mangelnder Verbindlichkeit: Europarat nimmt KI-Konvention an | |
| Der Europarat will die Menschenrechte vor einem Missbrauch durch KI | |
| schützen. Die Organisation hofft auf eine weltweite Wirkung – doch es gibt | |
| Kritik. | |
| Diskriminierung durch KI: Der Algorithmus sagt Nein | |
| Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
| anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
| TÜV für Künstliche Intelligenz: Die Neuen im Newsroom | |
| Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. | |
| Auch der Journalismus muss seine Grundsätze mal wieder updaten. | |
| EU will Datenschutz besser durchsetzen: Mehr Harmonie, weniger Warten | |
| Es hapert an der grenzübergreifenden Umsetzung der | |
| Datenschutzgrundverordnung in der EU. Die Kommission setzt bei der Reform | |
| auf einfache Mittel. | |
| Neue Musk-Entscheidung bei Twitter: Achtung, Limit! | |
| Seit Samstag können nicht mehr alle lesen, was auf Twitter so geschrieben | |
| wird. Besitzer Elon Musk liefert dafür eine simple Erklärung. | |
| EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
| Am Mittwoch möchte das EU-Parlament über die weltweit bislang umfassendste | |
| Regulierung von KI abstimmen. Expert:innen fordern schon | |
| Nachbesserungen. | |
| Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
| Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
| Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. |