| # taz.de -- EU-Parlament zur künstlichen Intelligenz: Der KI Grenzen setzen | |
| > Am Mittwoch möchte das EU-Parlament über die weltweit bislang | |
| > umfassendste Regulierung von KI abstimmen. Expert:innen fordern schon | |
| > Nachbesserungen. | |
| Bild: Das Bild des deutschen Fotografen Boris Eldagsen ist ein Produkt von kün… | |
| Es ist ein düsteres Szenario, das Meredith Whittaker da malt. Eine Welt, in | |
| der wenige große Unternehmen Systeme mit künstlicher Intelligenz (KI) | |
| herstellen und kontrollieren. Eine Welt, in der unterbezahlte | |
| Arbeiter:innen diese KI-Systeme kuratieren und ihnen zuliefern müssen. | |
| In der die Interessen und Rechte der Nutzer:innen und das Wohl der | |
| Gesellschaft sekundär sind. Mit diesem Szenario warnt Whittaker davor, die | |
| Unternehmen und den Markt einfach machen zu lassen: „Die KI-Systeme werden | |
| von Firmen gebaut, deren primäre Ziele Profit und Wachstum sind.“ | |
| Whittaker, einst Google-Mitarbeiterin, ist heute Präsidentin der | |
| Signal-Stiftung, die mit der gleichnamigem [1][Messenger-App] verbunden | |
| ist. Und sie ist Expertin in Sachen KI: Als Mitgründerin des AI Now | |
| Instituts an der New York University beschäftigt sie sich auch | |
| wissenschaftlich mit der Technologie. Auf der Bühne bei der | |
| Digitalkonferenz re:publica spricht sie vor einem Publikum, das | |
| tendenziell der Digitalisierung gegenüber aufgeschlossen eingestellt ist. | |
| Doch KI – das ist kein klassisches Digitalisierungsthema. Anders als neue | |
| Plattformen, von denen alle paar Jahre mal eine neue zum Star wird, wie | |
| aktuell Tiktok, anders als die permanente digitale Überwachung, an die sich | |
| die meisten längst gewöhnt haben, ist KI etwas grundlegend Neues. Etwas, | |
| das Hoffnungen weckt. Und Ängste. | |
| Es ist nicht einmal zwei Wochen her, dass eine Reihe Expert:innen, darunter | |
| etwa Sam Altman, Chef des ChatGPT-Herstellers OpenAI, vor möglichen Risiken | |
| gewarnt hat: „Das Risiko einer Vernichtung durch KI zu verringern, sollte | |
| eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes | |
| sein, wie etwa Pandemien und Atomkrieg.“ | |
| ## OpenAI-Chef tingelt durch die Politikwelt | |
| Dass die Warnung es bei diesem einen Satz beließ, sorgte umgehend für | |
| Kritik. Sie würde damit eher weitere Ängste auslösen, statt einen Weg für | |
| einen konstruktiven Umgang mit der neuen Technologie aufzuzeigen. | |
| KI-Expertin Whittaker bezeichnet die Idee der Überlegenheit von KI als | |
| „Mythos“. „Je mehr wir glauben, dass diese Systeme übermächtig sind, de… | |
| mehr Macht geben wir den Firmen dahinter“, sagt sie. | |
| Zum Beispiel die Macht, gehört zu werden. So trifft Altman aktuell die | |
| Staatschef:innen zahlreicher Länder – und nahm auch am Treffen eines | |
| transatlantischen Kooperationsforums teil, auf dem Vertreter:innen von | |
| EU und USA sich über gemeinsame Standards für KI-Anwendungen austauschten. | |
| Tatsächlich ist die EU, was die KI-Regulierung angeht, ausnahmsweise mal | |
| nicht allzu weit hinter einer Technologieentwicklung zurück. Am Mittwoch | |
| soll das Parlament über den Artificial Intelligence (AI) Act abstimmen. Es | |
| ist die weltweit bislang umfassendste Regulierung zu künstlicher | |
| Intelligenz. | |
| Die Abstimmung ist ein wichtiger Zwischenschritt, denn die Zeit drängt: Bis | |
| zum Jahresende sollen sich Parlament, Rat und EU-Kommission in den Trilog | |
| genannten Kompromissverhandlungen geeinigt haben. Weil es wegen | |
| Übergangsfristen danach noch zwei bis drei Jahre dauern wird, bis die | |
| Regelungen letztlich greifen, kündigten EU und USA nach dem | |
| Kooperationstreffen einen „freiwilligen Verhaltenskodex“ an, der diese Zeit | |
| überbrücken und die Weichen in Richtung der europäischen Regelungen stellen | |
| soll. | |
| ## Positive Reaktionen auf Regeln | |
| Tatsächlich haben nicht nur die EU, sondern auch die USA Interesse an | |
| gemeinsamen Regeln, die sich andere Länder zum Vorbild nehmen könnten. Doch | |
| was taugen die europäischen Regeln in der Form, wie sie aktuell geplant | |
| sind? | |
| Spricht man mit Expert:innen für IT-Recht und -Ethik über den AI Act, | |
| sind die Reaktionen zumeist erst einmal positiv. Zum Beispiel, dass die EU | |
| einen sogenannten risikobasierten Ansatz verfolgt. Das heißt: Die | |
| Anwendungen sollen in Risikoklassen eingeteilt werden – je höher das | |
| Risiko, desto umfassender und strenger die Regeln. | |
| Damit wird beispielsweise eine KI im Bereich Strafverfolgung stärker | |
| reguliert als ein Chatbot. Dazu kommen Vorschriften zu Transparenz und | |
| Erklärbarkeit der Systeme sowie Rechte für Betroffene, die sich gegen | |
| KI-Entscheidungen wehren wollen. Die beiden federführenden Ausschüsse des | |
| EU-Parlaments hatten zuletzt noch einmal nachgeschärft und weitere | |
| Anwendungen in die Kategorie „inakzeptables Risiko“ aufgenommen, in der | |
| sich die verbotenen Einsatzzwecke befinden, – unter anderem Systeme zur | |
| biometrischen Massenüberwachung. | |
| „Der Schutz der Menschen steht im Mittelpunkt“, beschreibt Matthias | |
| Kettemann, Professor für Innovationsrecht an der Universität Innsbruck, den | |
| Geist des Gesetzesvorhabens. Und: Weil die Regulierung nicht bei | |
| technischen Vorgaben stehen bleibt, sondern die Auswirkungen auf die | |
| Gesellschaft im Blick habe, drohe der AI Act nicht von den technologischen | |
| Entwicklungen überholt zu werden. | |
| ## Wer lässt sich zur Rechenschaft ziehen? | |
| Auch Sandra Wachter, Professorin am Oxford Internet Institute der | |
| gleichnamigen Universität sieht viel Positives – aber in einigen Punkten | |
| auch deutlichen Nachholbedarf. Zum Beispiel sei aktuell vorgesehen, dass | |
| die Hersteller im Rahmen der vorgesehenen Zertifizierung selbst bewerten | |
| sollen, ob ihre Produkte den Regeln entsprechen, statt dafür externe | |
| Prüfer:innen heranziehen zu müssen. Oder die Haftungsfrage, also: Eine | |
| KI richtet Schaden an – wer lässt sich dafür zur Rechenschaft ziehen? | |
| „Momentan liegt der Fokus der EU bei der Haftung noch sehr auf den | |
| Entwicklern der Foundation Models und das ist meines Erachtens nicht | |
| ausreichend“, sagt Wachter. | |
| Foundation Models sind quasi die Basis-Modelle für KI-Anwendungen. Im Bezug | |
| auf die Herstellungskette vergleicht Wachter sie mit einem Hersteller von | |
| Ton. Ähnlich wie das Rohmaterial Ton in einem zweiten Schritt verarbeitet | |
| wird und in einem Dritten ein:e Kund:in es kauft und nutzt, werden aus den | |
| Basis-Modellen im nächsten Schritt KI-Anwendungen entwickelt und diese | |
| schließlich von den Nutzer:innen verwendet. | |
| Wachter plädiert dafür, alle Akteur:innen in der Kette in die | |
| Verantwortung zu nehmen – aber mit unterschiedlichen Pflichten. So müsse | |
| ein Ton-Hersteller beispielsweise dafür sorgen, dass kein Gift in dem | |
| Material sei. Der Hersteller einer Vase darf keine Fälschung erstellen und | |
| der Kunde niemanden damit erschlagen. Eine analoge Regulierung brauche es | |
| auch für KI. | |
| Auch beim Umweltaspekt gibt es noch Luft nach oben. Zum Beispiel ist eine | |
| Bewertung der Umweltauswirkungen bislang nur für Anwendungen | |
| vorgeschrieben, die in den Bereich des hohen Risikos fallen. Die | |
| KI-Anwendung für den OP-Roboter braucht also die Bewertung, der | |
| [2][Chatbot] aber nicht. Dazu kommt: Die Modelle zum Maschinellen Lernen, | |
| die zahlreichen aktuellen KI-Anwendungen zu Grunde liegen, werden immer | |
| größer – und damit ressourcenintensiver. „Wenn wir davon ausgehen, dass w… | |
| unseren Energieverbrauch reduzieren müssen, ist das kontraproduktiv“, sagt | |
| Friederike Rohde vom Institut für ökologische Wirtschaftsforschung. | |
| ## Halber Liter Wasserverbrauch für 20 bis 50 Fragen | |
| Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft | |
| an der Europauniversität Viadrina, schlägt in einem aktuellen Arbeitspapier | |
| daher unter anderem eine Deckelung des Energieverbrauchs vor – diese könnte | |
| für gesellschaftlich wichtige Anwendungen höher ausfallen als für weniger | |
| wichtige. Außerdem gelte es, neben der Energie auch den Wasserverbrauch im | |
| Blick zu haben: Ein großes Modell, wie GPT-4, auf dem auch ChatGPT basiert, | |
| verbrauche „signifikante Mengen“ Wasser für die Kühlung der Rechenzentren. | |
| Ein Austausch von 20 bis 50 Fragen mit ChatGPT verbrauche aktuellen | |
| Schätzungen zufolge etwa einen halben Liter Wasser. | |
| Wie das mit der Ressourcenschonung gehen kann, zeigt Björn Ommer auf der | |
| re:publica-Konferenz. Ommer ist Professor an der | |
| Ludwigs-Maximilians-Universität München. Gemeinsam mit seiner | |
| Forschungsgruppe veröffentlichte er im vergangenen Jahr einen der | |
| leistungsfähigsten KI-Bildgeneratoren, die es derzeit gibt: Stable | |
| Diffusion. | |
| Im Unterschied zu anderen generativen KIs wie Midjourney oder ChatGPT ist | |
| Ommers Software Open Source: [3][Jede:r kann den Quellcode einsehen und | |
| verändern.] Das kleine und damit ressourcensparende Modell führt dazu, dass | |
| die Software auch auf Heimcomputern mit etwas leistungsfähigeren | |
| Grafikkarten anwendbar ist. „Demokratisierung von KI“ nennt Ommer das. | |
| Es könnte ein Baustein sein dafür, dass KI-Anwendungen nicht nur von | |
| wenigen großen Firmen entwickelt und betrieben werden. „Wenn es uns | |
| gelingt, den Menschen in den Mittelpunkt zu stellen, dann wird KI ein | |
| großartiges Werkzeug werden, das unsere menschlichen Fähigkeiten ergänzt | |
| und erweitert“, sagt Ommer. Die nächsten Schritte beim AI Act werden | |
| zeigen, ob es in diese Richtung geht. | |
| 13 Jun 2023 | |
| ## LINKS | |
| [1] /Alternative-Messenger-Dienste/!5743214 | |
| [2] /Chatbots-und-Google/!5912238 | |
| [3] /Open-Source-Aktivist-ueber-freie-Lizenzen/!5119575 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| EU-Parlament | |
| Schwerpunkt Künstliche Intelligenz | |
| Digitalisierung | |
| Datenschutz | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Faschismus | |
| Gesetz | |
| Technologie | |
| Schwerpunkt Überwachung | |
| Frauenkörper | |
| Schwerpunkt Rassismus | |
| Kirchenaustritte (Glaube, Religion) | |
| ## ARTIKEL ZUM THEMA | |
| Rechtsexpertin über Verbraucherrechte: „Ein Akteur haftet immer“ | |
| Masterarbeit futsch, smartes Türschloss zu: Wenn Software Schäden | |
| verursacht, haben Verbraucher:innen schlechte Karten. Noch. Wird es | |
| besser? | |
| Umstrittenes EU-Überwachungsgesetz: Anlasslose Chatkontrolle abgesagt | |
| Bürgerrechtler:innen jubeln: Das EU-Parlament will das | |
| Überwachungsgesetz entschärfen. Doch auch am jüngsten Entwurf gibt es | |
| Kritik. | |
| Diskriminierung durch KI: Der Algorithmus sagt Nein | |
| Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter | |
| anderem durch KI – und zeigt auf, was sich besser machen ließe. | |
| Europarat verhandelt Abkommen: KI für die Milliarden | |
| Es könnte die weltweit größte Regulierung Künstlicher Intelligenz werden. | |
| Die Konvention des Europarats würde Menschen auf mindestens drei | |
| Kontinenten betreffen. Doch es gibt auch Kritik. | |
| Faschismus durch künstliche Intelligenz: Gesellschaft als Maschine | |
| KI wird zu weniger Arbeitsplätzen führen. Daran müssen wir uns gewöhnen. | |
| Aber eine von Maschinen beherrschte Welt wäre entmenschlicht und | |
| gefährlich. | |
| Regulierung Künstlicher Intelligenz: Weltweit erstes KI-Gesetz | |
| Je riskanter die künstliche Intelligenz, desto mehr Auflagen – darauf | |
| konnte sich das EU-Parlament einigen. Doch einige Punkte bleiben strittig. | |
| Macht der künstlichen Intelligenz: Wer profitiert | |
| Die Machtfrage wird bei KI zu verengt gestellt. Es geht nicht nur um den | |
| technologischen, sondern auch um den ökonomischen Aspekt. | |
| Debatte im EU-Parlament: Streit um Überwachung mit KI | |
| Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
| Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
| Die politische Rolle des Kehlkopfs: Tiefere Stimme, höhere Position | |
| Was könnte Annalena Baerbock erreichen mit dem Organ eines Sigmar Gabriel? | |
| Vielleicht gleicht KI ja bald die vokale Geschlechterungerechtigkeit aus. | |
| Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
| Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
| Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. | |
| Gottesdienst durch Künstliche Intelligenz: Und ChatGPT sprach… | |
| Beim Evangelischen Kirchentag wurde der erste, von Künstlicher Intelligenz | |
| erdachte und geleitete, deutsche Gottesdienst gehalten. Ein Erfolg? |