# taz.de -- EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
> Am Mittwoch möchte das EU-Parlament über die weltweit bislang | |
> umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon | |
> Nachbesserungen. | |
Bild: Das Bild des deutschen Fotografen Boris Eldagsen ist ein Produkt von kün… | |
Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in | |
der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI) | |
herstellen und kontrollieren. Eine Welt, in der unterbezahlte | |
Arbeiter:innen diese KI-Systeme kuratieren und ihnen zuliefern müssen. | |
In der die Interessen und Rechte der Nutzer:innen und das Wohl der | |
Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die | |
Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden | |
von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“ | |
Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der | |
Signal-Stiftung, die mit der gleichnamigem [1][Messenger-App] verbunden | |
ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now | |
Instituts an der New York University beschäftigt sie sich auch | |
wissenschaftlich mit der Technologie. Auf der Bühne bei der | |
Digitalkonferenz re:publica spricht sie vor einem Publikum, das | |
tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist. | |
Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue | |
Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie | |
aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich | |
die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas, | |
das Hoffnungen weckt. Und Ängste. | |
Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter | |
etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken | |
gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte | |
eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes | |
sein, wie etwa Pandemien und Atomkrieg.“ | |
## OpenAI-Chef tingelt durch die Politikwelt | |
Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für | |
Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für | |
einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen. | |
KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als | |
„Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, de… | |
mehr Macht geben wir den Firmen dahinter“, sagt sie. | |
Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die | |
Staatschef:innen zahlreicher Länder – und nahm auch am Treffen eines | |
transatlantischen Kooperationsforums teil, auf dem Vertreter:innen von | |
EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten. | |
Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal | |
nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch | |
soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es | |
ist die weltweit bislang umfassendste Regulierung zu künstlicher | |
Intelligenz. | |
Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis | |
zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog | |
genannten Kompromissverhandlungen geeinigt haben. Weil es wegen | |
Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die | |
Regelungen letztlich greifen, kündigten EU und USA nach dem | |
Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit | |
überbrücken und die Weichen in Richtung der europäischen Regelungen stellen | |
soll. | |
## Positive Reaktionen auf Regeln | |
Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an | |
gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch | |
was taugen die europäischen Regeln in der Form, wie sie aktuell geplant | |
sind? | |
Spricht man mit Expert:innen für IT-Recht und -Ethik über den AI Act, | |
sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU | |
einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die | |
Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das | |
Risiko, desto umfassender und strenger die Regeln. | |
Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker | |
reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und | |
Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen | |
KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des | |
EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere | |
Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der | |
sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur | |
biometrischen Massenüberwachung. | |
„Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias | |
Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den | |
Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei | |
technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die | |
Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen | |
Entwicklungen überholt zu werden. | |
## Wer lässt sich zur Rechenschaft ziehen? | |
Auch Sandra Wachter, Professorin am Oxford Internet Institute der | |
gleichnamigen Universität sieht viel Positives – aber in einigen Punkten | |
auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass | |
die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten | |
sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe | |
Prüfer:innen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine | |
KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen? | |
„Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den | |
Entwicklern der Foundation Models und das ist meines Erachtens nicht | |
ausreichend“, sagt Wachter. | |
Foundation Models sind quasi die Basis-Modelle für KI-Anwendungen. Im Bezug | |
auf die Herstellungskette vergleicht Wachter sie mit einem Hersteller von | |
Ton. Ähnlich wie das Rohmaterial Ton in einem zweiten Schritt verarbeitet | |
wird und in einem Dritten ein:e Kund:in es kauft und nutzt, werden aus den | |
Basis-Modellen im nächsten Schritt KI-Anwendungen entwickelt und diese | |
schließlich von den Nutzer:innen verwendet. | |
Wachter plädiert dafür, alle Akteur:innen in der Kette in die | |
Verantwortung zu nehmen – aber mit unterschiedlichen Pflichten. So müsse | |
ein Ton-Hersteller beispielsweise dafür sorgen, dass kein Gift in dem | |
Material sei. Der Hersteller einer Vase darf keine Fälschung erstellen und | |
der Kunde niemanden damit erschlagen. Eine analoge Regulierung brauche es | |
auch für KI. | |
Auch beim Umweltaspekt gibt es noch Luft nach oben. Zum Beispiel ist eine | |
Bewertung der Umweltauswirkungen bislang nur für Anwendungen | |
vorgeschrieben, die in den Bereich des hohen Risikos fallen. Die | |
KI-Anwendung für den OP-Roboter braucht also die Bewertung, der | |
[2][Chatbot] aber nicht. Dazu kommt: Die Modelle zum Maschinellen Lernen, | |
die zahlreichen aktuellen KI-Anwendungen zu Grunde liegen, werden immer | |
größer – und damit ressourcenintensiver. „Wenn wir davon ausgehen, dass w… | |
unseren Energieverbrauch reduzieren müssen, ist das kontraproduktiv“, sagt | |
Friederike Rohde vom Institut für ökologische Wirtschaftsforschung. | |
## Halber Liter Wasserverbrauch für 20 bis 50 Fragen | |
Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft | |
an der Europauniversität Viadrina, schlägt in einem aktuellen Arbeitspapier | |
daher unter anderem eine Deckelung des Energieverbrauchs vor – diese könnte | |
für gesellschaftlich wichtige Anwendungen höher ausfallen als für weniger | |
wichtige. Außerdem gelte es, neben der Energie auch den Wasserverbrauch im | |
Blick zu haben: Ein großes Modell, wie GPT-4, auf dem auch ChatGPT basiert, | |
verbrauche „signifikante Mengen“ Wasser für die Kühlung der Rechenzentren. | |
Ein Austausch von 20 bis 50 Fragen mit ChatGPT verbrauche aktuellen | |
Schätzungen zufolge etwa einen halben Liter Wasser. | |
Wie das mit der Ressourcenschonung gehen kann, zeigt Björn Ommer auf der | |
re:publica-Konferenz. Ommer ist Professor an der | |
Ludwigs-Maximilians-Universität München. Gemeinsam mit seiner | |
Forschungsgruppe veröffentlichte er im vergangenen Jahr einen der | |
leistungsfähigsten KI-Bildgeneratoren, die es derzeit gibt: Stable | |
Diffusion. | |
Im Unterschied zu anderen generativen KIs wie Midjourney oder ChatGPT ist | |
Ommers Software Open Source: [3][Jede:r kann den Quellcode einsehen und | |
verändern.] Das kleine und damit ressourcensparende Modell führt dazu, dass | |
die Software auch auf Heimcomputern mit etwas leistungsfähigeren | |
Grafikkarten anwendbar ist. „Demokratisierung von KI“ nennt Ommer das. | |
Es könnte ein Baustein sein dafür, dass KI-Anwendungen nicht nur von | |
wenigen großen Firmen entwickelt und betrieben werden. „Wenn es uns | |
gelingt, den Menschen in den Mittelpunkt zu stellen, dann wird KI ein | |
großartiges Werkzeug werden, das unsere menschlichen Fähigkeiten ergänzt | |
und erweitert“, sagt Ommer. Die nächsten Schritte beim AI Act werden | |
zeigen, ob es in diese Richtung geht. | |
13 Jun 2023 | |
## LINKS | |
[1] /Alternative-Messenger-Dienste/!5743214 | |
[2] /Chatbots-und-Google/!5912238 | |
[3] /Open-Source-Aktivist-ueber-freie-Lizenzen/!5119575 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
künstliche Intelligenz | |
EU-Parlament | |
Datenschutz | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Faschismus | |
Schwerpunkt Künstliche Intelligenz | |
Schlagloch | |
künstliche Intelligenz | |
Frauenkörper | |
Schwerpunkt Rassismus | |
Kirchentag 2023 | |
## ARTIKEL ZUM THEMA | |
Umstrittenes EU-Überwachungsgesetz: Anlasslose Chatkontrolle abgesagt | |
Bürgerrechtler:innen jubeln: Das EU-Parlament will das | |
Überwachungsgesetz entschärfen. Doch auch am jüngsten Entwurf gibt es | |
Kritik. | |
Diskriminierung durch KI: Der Algorithmus sagt Nein | |
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
Europarat verhandelt Abkommen: KI für die Milliarden | |
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
Die Konvention des Europarats würde Menschen auf mindestens drei | |
Kontinenten betreffen. Doch es gibt auch Kritik. | |
Faschismus durch künstliche Intelligenz: Gesellschaft als Maschine | |
KI wird zu weniger Arbeitsplätzen führen. Daran müssen wir uns gewöhnen. | |
Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und | |
gefährlich. | |
Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz | |
Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf | |
konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig. | |
Macht der künstlichen Intelligenz: Wer profitiert | |
Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den | |
technologischen, sondern auch um den ökonomischen Aspekt. | |
Debatte im EU-Parlament: Streit um Überwachung mit KI | |
Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
Die politische Rolle des Kehlkopfs: Tiefere Stimme, höhere Position | |
Was könnte Annalena Baerbock erreichen mit dem Organ eines Sigmar Gabriel? | |
Vielleicht gleicht KI ja bald die vokale Geschlechterungerechtigkeit aus. | |
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. | |
Gottesdienst durch Künstliche Intelligenz: Und ChatGPT sprach… | |
Beim Evangelischen Kirchentag wurde der erste, von Künstlicher Intelligenz | |
erdachte und geleitete, deutsche Gottesdienst gehalten. Ein Erfolg? |