Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Moratorium über Umgang mit KI: Pause mit Problemen
> Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
> Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Bild: Reichen sechs Monate Entwicklungsstopp, um die Gefahren einer KI vorzubeu…
Berlin taz | Nach dem [1][offenen Brief], in dem zahlreiche
Tech-Expert:innen ein Moratorium für die [2][Entwicklung Künstlicher
Intelligenz (KI)] forderten, drängen nun auch die Vereinten Nationen die
Gesetzgeber weltweit zu Maßnahmen. Die Organisation der Vereinten Nationen
für Bildung, Wissenschaft und Kultur (Unesco) forderte, ihre Empfehlungen
zum ethischen Umgang mit KI umzusetzen.
Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken
könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien
Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten.
Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang
zügig in nationales Recht übersetzen.
Die Expert:innen aus der Tech-Branche hatten diese Woche in ihrem
offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene
KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors
einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer
leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre
Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“,
heißt es in dem Schreiben.
## Vorstoß für Moratorium ist umstritten
Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen
Umgang mit der neuen Technologie zu finden und beispielsweise
Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand
Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet.
Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu
Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein
paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp
genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich
unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin,
KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission.
Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der
Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie
glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich
stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf
die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller
KI-Technologien hinzuweisen und zu versuchen, in einen breiten
demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und
-Experten aus den Forschungsinstituten und den großen Tech-Unternehmen
aktiv beteiligen.“
## Am Problem vorbei
KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme
aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung
beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens
genauso wichtig ist wie die Entstehung.“ Zwar würden die
Unterzeichner:innen des Briefs auch sinnvolle Maßnahmen wie
Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den
Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen
Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter
anderem Milliardär [3][Elon Musk].
Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von
Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht
alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen
Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus,
bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen.
„Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber
der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu
schützen, KI-basierte Diskriminierung zu beenden und globale
Entwicklungsziele zu erreichen.“
„Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen
beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo
Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on
Intelligent Systems an der Universität Stuttgart.
Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne
beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu
verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich
genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert
werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von
KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.
31 Mar 2023
## LINKS
[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[2] /ChatGPT-mit-Tuecken/!5924109
[3] /Elon-Musk/!t5204700
## AUTOREN
Svenja Bergt
## TAGS
Technologie
Schwerpunkt Künstliche Intelligenz
Kolumne Digitalozän
Roboter
Roboter
Transparenz
Lesestück Recherche und Reportage
## ARTIKEL ZUM THEMA
Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief
Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In
Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen.
KI und Anthropomorphismus: Mensch in der Maschine?
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
wir zu menschlichen Metaphern. Aber das birgt Probleme.
ChatGPT mit Tücken: Kein Entkommen vor der KI
Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den
Anfang einer rasanten Entwicklung – die auch Risiken birgt.
OpenAI in der Kritk: Transparent gewaschen
Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf
ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso
problematischer.
ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine
Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen
Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch
etwas Zentrales verlorengeht. Stimmt das?
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.