Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen
> Am Mittwoch möchte das EU-Parlament über die weltweit bislang
> umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon
> Nachbesserungen.
Bild: Das Bild des deutschen Fotografen Boris Eldagsen ist ein Produkt von kün…
Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in
der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI)
herstellen und kontrollieren. Eine Welt, in der unterbezahlte
Arbeiter:innen diese KI-Systeme kuratieren und ihnen zuliefern müssen.
In der die Interessen und Rechte der Nutzer:innen und das Wohl der
Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die
Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden
von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“
Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der
Signal-Stiftung, die mit der gleichnamigem [1][Messenger-App] verbunden
ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now
Instituts an der New York University beschäftigt sie sich auch
wissenschaftlich mit der Technologie. Auf der Bühne bei der
Digitalkonferenz re:publica spricht sie vor einem Publikum, das
tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist.
Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue
Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie
aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich
die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas,
das Hoffnungen weckt. Und Ängste.
Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter
etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken
gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte
eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes
sein, wie etwa Pandemien und Atomkrieg.“
## OpenAI-Chef tingelt durch die Politikwelt
Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für
Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für
einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen.
KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als
„Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, de…
mehr Macht geben wir den Firmen dahinter“, sagt sie.
Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die
Staatschef:innen zahlreicher Länder – und nahm auch am Treffen eines
transatlantischen Kooperationsforums teil, auf dem Vertreter:innen von
EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten.
Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal
nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch
soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es
ist die weltweit bislang umfassendste Regulierung zu künstlicher
Intelligenz.
Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis
zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog
genannten Kompromissverhandlungen geeinigt haben. Weil es wegen
Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die
Regelungen letztlich greifen, kündigten EU und USA nach dem
Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit
überbrücken und die Weichen in Richtung der europäischen Regelungen stellen
soll.
## Positive Reaktionen auf Regeln
Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an
gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch
was taugen die europäischen Regeln in der Form, wie sie aktuell geplant
sind?
Spricht man mit Expert:innen für IT-Recht und -Ethik über den AI Act,
sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU
einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die
Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das
Risiko, desto umfassender und strenger die Regeln.
Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker
reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und
Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen
KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des
EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere
Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der
sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur
biometrischen Massenüberwachung.
„Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias
Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den
Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei
technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die
Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen
Entwicklungen überholt zu werden.
## Wer lässt sich zur Rechenschaft ziehen?
Auch Sandra Wachter, Professorin am Oxford Internet Institute der
gleichnamigen Universität sieht viel Positives – aber in einigen Punkten
auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass
die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten
sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe
Prüfer:innen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine
KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen?
„Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den
Entwicklern der Foundation Models und das ist meines Erachtens nicht
ausreichend“, sagt Wachter.
Foundation Models sind quasi die Basis-Modelle für KI-Anwendungen. Im Bezug
auf die Herstellungskette vergleicht Wachter sie mit einem Hersteller von
Ton. Ähnlich wie das Rohmaterial Ton in einem zweiten Schritt verarbeitet
wird und in einem Dritten ein:e Kund:in es kauft und nutzt, werden aus den
Basis-Modellen im nächsten Schritt KI-Anwendungen entwickelt und diese
schließlich von den Nutzer:innen verwendet.
Wachter plädiert dafür, alle Akteur:innen in der Kette in die
Verantwortung zu nehmen – aber mit unterschiedlichen Pflichten. So müsse
ein Ton-Hersteller beispielsweise dafür sorgen, dass kein Gift in dem
Material sei. Der Hersteller einer Vase darf keine Fälschung erstellen und
der Kunde niemanden damit erschlagen. Eine analoge Regulierung brauche es
auch für KI.
Auch beim Umweltaspekt gibt es noch Luft nach oben. Zum Beispiel ist eine
Bewertung der Umweltauswirkungen bislang nur für Anwendungen
vorgeschrieben, die in den Bereich des hohen Risikos fallen. Die
KI-Anwendung für den OP-Roboter braucht also die Bewertung, der
[2][Chatbot] aber nicht. Dazu kommt: Die Modelle zum Maschinellen Lernen,
die zahlreichen aktuellen KI-Anwendungen zu Grunde liegen, werden immer
größer – und damit ressourcenintensiver. „Wenn wir davon ausgehen, dass w…
unseren Energieverbrauch reduzieren müssen, ist das kontraproduktiv“, sagt
Friederike Rohde vom Institut für ökologische Wirtschaftsforschung.
## Halber Liter Wasserverbrauch für 20 bis 50 Fragen
Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft
an der Europauniversität Viadrina, schlägt in einem aktuellen Arbeitspapier
daher unter anderem eine Deckelung des Energieverbrauchs vor – diese könnte
für gesellschaftlich wichtige Anwendungen höher ausfallen als für weniger
wichtige. Außerdem gelte es, neben der Energie auch den Wasserverbrauch im
Blick zu haben: Ein großes Modell, wie GPT-4, auf dem auch ChatGPT basiert,
verbrauche „signifikante Mengen“ Wasser für die Kühlung der Rechenzentren.
Ein Austausch von 20 bis 50 Fragen mit ChatGPT verbrauche aktuellen
Schätzungen zufolge etwa einen halben Liter Wasser.
Wie das mit der Ressourcenschonung gehen kann, zeigt Björn Ommer auf der
re:publica-Konferenz. Ommer ist Professor an der
Ludwigs-Maximilians-Universität München. Gemeinsam mit seiner
Forschungsgruppe veröffentlichte er im vergangenen Jahr einen der
leistungsfähigsten KI-Bildgeneratoren, die es derzeit gibt: Stable
Diffusion.
Im Unterschied zu anderen generativen KIs wie Midjourney oder ChatGPT ist
Ommers Software Open Source: [3][Jede:r kann den Quellcode einsehen und
verändern.] Das kleine und damit ressourcensparende Modell führt dazu, dass
die Software auch auf Heimcomputern mit etwas leistungsfähigeren
Grafikkarten anwendbar ist. „Demokratisierung von KI“ nennt Ommer das.
Es könnte ein Baustein sein dafür, dass KI-Anwendungen nicht nur von
wenigen großen Firmen entwickelt und betrieben werden. „Wenn es uns
gelingt, den Menschen in den Mittelpunkt zu stellen, dann wird KI ein
großartiges Werkzeug werden, das unsere menschlichen Fähigkeiten ergänzt
und erweitert“, sagt Ommer. Die nächsten Schritte beim AI Act werden
zeigen, ob es in diese Richtung geht.
13 Jun 2023
## LINKS
[1] /Alternative-Messenger-Dienste/!5743214
[2] /Chatbots-und-Google/!5912238
[3] /Open-Source-Aktivist-ueber-freie-Lizenzen/!5119575
## AUTOREN
Svenja Bergt
## TAGS
EU-Parlament
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Datenschutz
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Faschismus
Gesetz
Technologie
Schwerpunkt Überwachung
Frauenkörper
Schwerpunkt Rassismus
Glaube, Religion, Kirchenaustritte
## ARTIKEL ZUM THEMA
Rechtsexpertin über Verbraucherrechte: „Ein Akteur haftet immer“
Masterarbeit futsch, smartes Türschloss zu: Wenn Software Schäden
verursacht, haben Verbraucher:innen schlechte Karten. Noch. Wird es
besser?
Umstrittenes EU-Überwachungsgesetz: Anlasslose Chatkontrolle abgesagt
Bürgerrechtler:innen jubeln: Das EU-Parlament will das
Überwachungsgesetz entschärfen. Doch auch am jüngsten Entwurf gibt es
Kritik.
Diskriminierung durch KI: Der Algorithmus sagt Nein
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
anderem durch KI – und zeigt auf, was sich besser machen ließe.
Europarat verhandelt Abkommen: KI für die Milliarden
Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden.
Die Konvention des Europarats würde Menschen auf mindestens drei
Kontinenten betreffen. Doch es gibt auch Kritik.
Faschismus durch künstliche Intelligenz: Gesellschaft als Maschine
KI wird zu weniger Arbeitsplätzen führen. Daran müssen wir uns gewöhnen.
Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und
gefährlich.
Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz
Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf
konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig.
Macht der künstlichen Intelligenz: Wer profitiert
Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den
technologischen, sondern auch um den ökonomischen Aspekt.
Debatte im EU-Parlament: Streit um Überwachung mit KI
Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es
Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung.
Die politische Rolle des Kehlkopfs: Tiefere Stimme, höhere Position
Was könnte Annalena Baerbock erreichen mit dem Organ eines Sigmar Gabriel?
Vielleicht gleicht KI ja bald die vokale Geschlechterungerechtigkeit aus.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
Gottesdienst durch Künstliche Intelligenz: Und ChatGPT sprach…
Beim Evangelischen Kirchentag wurde der erste, von Künstlicher Intelligenz
erdachte und geleitete, deutsche Gottesdienst gehalten. Ein Erfolg?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.