Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht
> Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will
> das ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.
Bild: Wer eine KI trainieren will, braucht leistungsfähige Hardware
Berlin taz | Energieintensives Training, leistungsfähige Hardware, hoher
Ressourcenverbrauch – Anwendungen mit Künstlicher Intelligenz (KI) stehen
in dem Ruf, wahre Energieschlucker zu sein. Doch wie hungrig die
Technologie tatsächlich ist, ist bislang nicht wirklich bekannt. Ein neuer
[1][Vorschlag für einen Nachhaltigkeitsindex] soll der erste Schritt sein,
daran etwas zu ändern: Die NGO AlgorithmWatch hat diesen in einem
gemeinsamen Projekt mit dem Institut für ökologische Wirtschaftsforschung
und der TU Berlin entwickelt.
Anwendungen mit Künstlicher Intelligenz werden als großes Zukunftsthema
gehandelt. Schon jetzt steckt KI in alltäglich genutzter Software, etwa zur
Bildbearbeitung auf dem Smartphone, zur Spracherkennung oder zur
Navigation.
Das Problem: Was diese Software an Energie und Ressourcen wie Wasser
verbraucht, an Emissionen und Elektroschrott verursacht – das ist nicht
transparent. „Es gibt zu wenige Daten und von diesen geben die
Tech-Konzerne nicht genug heraus, um ein umfassendes Bild zu bekommen“,
kritisiert Andreas Meyer, der an der TU Berlin zu Künstlicher Intelligenz
forscht.
Dabei ist der Energiebedarf abhängig vom Modell der KI und dem Moment ihres
Einsatzes: So ist davon auszugehen, dass gerade die Trainingsphase, in der
bei den Modellen des Maschinellen Lernens große Datenmengen verarbeitet
werden und es schnell gehen soll, der Energiebedarf immens ist.
Grundsätzlich wird eine Anwendung, die Videos erstellt, mehr verbrauchen,
als eine, die nur Sprache verarbeitet und eine Anwendung die Bilder
generiert, mehr als eine, die Text ausgibt.
## Von Energieverbrauch bis Nicht-Diskriminierung
Die drei Organisationen haben nun einen Kriterienkatalog vorgelegt, der
helfen soll, das Nachhaltigkeitsniveau zu bewerten und zu verbessern. 13
Kriterien für Nachhaltigkeit von KI-Systemen sind am Ende herausgekommen.
Darunter finden sich Energieverbrauch und der Bedarf an externen Ressourcen
genauso wie Datenschutz und Nicht-Diskriminierung. Der Kriterienkatalog
soll zum einen eine Handreichung für Unternehmen und Organisationen sein,
die solche Systeme einsetzen. Zum anderen soll er Druck auf die Politik
ausüben.
Denn auf [2][EU-Ebene ist mit dem AI Act eine KI-Regulierung in Arbeit]. Ob
und in welchem Maße darin aber Kriterien für Nachhaltigkeit einen Platz
finden werden, wird sich zeigen. Mehr noch: Aktuell könnte ein
entscheidender Teil der gesamten Gesetzgebung auf der Kippe stehen. Kurz
vor der entscheidenden Verhandlungsphase zeichnet sich ab, dass einzelne
Länder versuchen, die Regeln aufzuweichen.
So berichtete das Magazin [3][Politico] diese Woche, dass Deutschland,
Frankreich und Italien einen entscheidenden Teil der KI-Systeme von der
Regulierung ausnehmen wollen. Konkret geht es dabei um die sogenannten
Basismodelle. Das sind sehr große KI-Modelle, die mit einem breiten Satz an
Daten trainiert wurden. Es gibt Basismodelle für verschiedene Bereiche wie
Bilder, Videos, Text oder Sprache. Eines der bekanntesten Basismodelle ist
GPT für Text. Aus einem Basismodell kann eine Vielzahl anderer Anwendungen
entstehen – daher ist ihre Regulierung entscheidend.
Doch die Regierungen der drei Länder sprechen sich dem Bericht zufolge nun
dagegen aus, die Basismodelle zu regulieren. Sie argumentieren mit
wirtschaftlichen Interessen: Vorschriften könnten verhindern, dass die
Basismodelle in Europa entwickelt werden.
Politico zitiert aus einem gemeinsamen Papier der drei Regierungen: Europa
brauche einen regulatorischen Rahmen, „der Innovation und Wettbewerb
fördert, damit europäische Akteure auftauchen und unsere Stimme und Werte
im globalen Wettlauf um KI vertreten können“.
## Haftungsfrage ungeklärt
In der Zivilgesellschaft stößt der Vorstoß auf Kritik: „Es gibt eine Reihe
von Risiken und Gefahren bei den Basismodellen, die der AI Act regulieren
muss“, sagt Kilian Vieth-Ditlmann von AlgorithmWatch. Als wichtigen Punkt
nennt er unter anderem das ohnehin schon umstrittene Thema Haftung, also
die Frage: Wer ist verantwortlich dafür, wenn etwas schief geht? Wenn etwa
die medizinische KI daneben liegt bei der Diagnose und das negative Folgen
hat? Expert:innen wie die KI-Forscherin [4][Sandra Wachter von der
Universität Oxford plädieren für eine Haftung entlang der Lieferkette] –
also jedes Unternehmen für den Schritt, den es selbst ausführt.
Würden nun die Basismodelle ausgenommen, dann blieben ausgerechnet die
leistungsfähigsten Teile unreguliert. Auch aus Umweltsicht hätte das
Nachteile: „Die Entwicklungsphase gerade dieser großen Modelle ist sehr
energieintensiv“, sagt Anne Mollen von Algorithmwatch.
Dass einschlägige Vorschriften negative Folgen für die Wirtschaft haben
könnten, scheinen indes nicht alle Länder zu befürchten: So erließ
US-Präsident Joe Biden kürzlich ein [5][Dekret], das Unternehmen unter
anderem Auflagen für die Basismodelle macht.
23 Nov 2023
## LINKS
[1] https://algorithmwatch.org/de/sustain-magazin-november-2023/
[2] /Geplante-EU-Regulierung-von-KI/!5937412
[3] https://www.politico.eu/article/france-germany-power-grab-kill-eu-blockbust…
[4] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487
[5] https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/ex…
## AUTOREN
Svenja Bergt
## TAGS
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Nachhaltigkeit
Schwerpunkt Künstliche Intelligenz
Digitalisierung
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
wochentaz
Digitalisierung
Schwerpunkt Rassismus
## ARTIKEL ZUM THEMA
Wissenschaftler entwickeln neue Hardware: Energiewende in der KI
Künstliche Intelligenz braucht viel Energie. Kieler Wissenschaftler stellen
Hardware vor, die so sparsam arbeiten soll wie das menschliche Gehirn.
Studie zu Einsparpotenzialen: Digitalisierung fürs Klima
Eine aktuelle Studie berechnet das Potenzial für die Einsparung von
Emissionen. Doch nicht alle sehen die Entwicklung in dem Bereich so
optimistisch.
Regulierung von künstlicher Intelligenz: Mehr Vorgaben für KI gefordert
Die EU will ihr Regelwerk für künstliche Intelligenz fertig verhandeln.
Kurz vor Schluss gibt es nun Streit: Fachleute fordern mehr
Verbindlichkeit.
Chaos bei OpenAI: Künstliche Aufregung
Letzte Woche rausgeworfen, jetzt zurückgeholt: Sam Altman, CEO von OpenAI.
Wer ist der mächtigste Entwickler von künstlicher Intelligenz?
Mozilla-Chefin über KI: „Aufregend und beängstigend“
Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin
Mitchell Baker über Chancen und warum Open Source ökologischer ist.
Debatte um Technologieregulierung: Klimaschutz als Vorbild für KI
Ein Weltrat für Künstliche Intelligenz, analog zum IPCC fürs Klima – das
schlägt die EU-Kommissionspräsidentin vor. Die Reaktionen sind gemischt.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.