| # taz.de -- Moratorium über Umgang mit KI: Pause mit Problemen | |
| > Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? | |
| > Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei. | |
| Bild: Reichen sechs Monate Entwicklungsstopp, um die Gefahren einer KI vorzubeu… | |
| Berlin taz | Nach dem [1][offenen Brief], in dem zahlreiche | |
| Tech-Expert:innen ein Moratorium für die [2][Entwicklung Künstlicher | |
| Intelligenz (KI)] forderten, drängen nun auch die Vereinten Nationen die | |
| Gesetzgeber weltweit zu Maßnahmen. Die Organisation der Vereinten Nationen | |
| für Bildung, Wissenschaft und Kultur (Unesco) forderte, ihre Empfehlungen | |
| zum ethischen Umgang mit KI umzusetzen. | |
| Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken | |
| könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien | |
| Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten. | |
| Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang | |
| zügig in nationales Recht übersetzen. | |
| Die Expert:innen aus der Tech-Branche hatten diese Woche in ihrem | |
| offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene | |
| KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors | |
| einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer | |
| leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre | |
| Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, | |
| heißt es in dem Schreiben. | |
| ## Vorstoß für Moratorium ist umstritten | |
| Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen | |
| Umgang mit der neuen Technologie zu finden und beispielsweise | |
| Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand | |
| Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet. | |
| Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu | |
| Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein | |
| paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp | |
| genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich | |
| unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin, | |
| KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission. | |
| Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der | |
| Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie | |
| glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich | |
| stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf | |
| die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller | |
| KI-Technologien hinzuweisen und zu versuchen, in einen breiten | |
| demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und | |
| -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen | |
| aktiv beteiligen.“ | |
| ## Am Problem vorbei | |
| KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme | |
| aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung | |
| beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens | |
| genauso wichtig ist wie die Entstehung.“ Zwar würden die | |
| Unterzeichner:innen des Briefs auch sinnvolle Maßnahmen wie | |
| Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den | |
| Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen | |
| Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter | |
| anderem Milliardär [3][Elon Musk]. | |
| Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von | |
| Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht | |
| alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen | |
| Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus, | |
| bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen. | |
| „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber | |
| der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu | |
| schützen, KI-basierte Diskriminierung zu beenden und globale | |
| Entwicklungsziele zu erreichen.“ | |
| „Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen | |
| beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo | |
| Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on | |
| Intelligent Systems an der Universität Stuttgart. | |
| Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne | |
| beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu | |
| verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich | |
| genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert | |
| werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von | |
| KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab. | |
| 31 Mar 2023 | |
| ## LINKS | |
| [1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/ | |
| [2] /ChatGPT-mit-Tuecken/!5924109 | |
| [3] /Elon-Musk/!t5204700 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Technologie | |
| Schwerpunkt Künstliche Intelligenz | |
| Kolumne Digitalozän | |
| Roboter | |
| Roboter | |
| Transparenz | |
| Lesestück Recherche und Reportage | |
| ## ARTIKEL ZUM THEMA | |
| Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief | |
| Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In | |
| Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen. | |
| KI und Anthropomorphismus: Mensch in der Maschine? | |
| Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
| wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
| ChatGPT mit Tücken: Kein Entkommen vor der KI | |
| Neue Technologie, neue Versuchungen. Expert:innen sehen in ChatGPT den | |
| Anfang einer rasanten Entwicklung – die auch Risiken birgt. | |
| OpenAI in der Kritk: Transparent gewaschen | |
| Das Unternehmen hinter ChatGPT gibt sich offen – doch wenn es darauf | |
| ankommt, mangelt es an Transparenz. Das ist im KI-Zeitalter umso | |
| problematischer. | |
| ChatGPT löst Bildungskrise aus: Hausaufgaben aus der Maschine | |
| Schüler überlassen das Schreiben ganzer Aufsätze einer künstlichen | |
| Intelligenz. Kritiker fürchten, dass der Persönlichkeitsentwicklung dadurch | |
| etwas Zentrales verlorengeht. Stimmt das? |