# taz.de -- Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet | |
> Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von | |
> ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten | |
> gilt. | |
Bild: Wer hat’s gemacht, Mensch oder KI? Die Frage stellt sich auch bei Bilde… | |
BERLIN taz | Bei einer Anhörung im Digitalausschuss des Bundestages haben | |
sich Expert:innen für eine zügige, aber auch gut durchdachte Regulierung | |
von Anwendungen mit künstlicher Intelligenz (KI) ausgesprochen. „Wir müssen | |
die Weichen richtig stellen, damit nicht die USA Weltmeister bei KI und die | |
EU Weltmeister bei der Regulierung werden“, sagte Philipp Hacker, Professor | |
für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität | |
Viadrina. | |
Die Regulierung von KI-Anwendungen ist [1][in den Fokus gerückt], nachdem | |
das US-Unternehmen OpenAI vor einem halben Jahr seinen Textgenerator | |
ChatGPT für die Öffentlichkeit zugänglich gemacht hat. [2][Damit wurde für | |
die breite Masse erstmals das Potenzial der neuen Technologie erfahrbar – | |
und ihre Gefahr]. Schnell zeigte sich, dass der Textgenerator auch Inhalte | |
erzeugt, die nicht den Tatsachen entsprechen und sich beispielsweise in | |
großem Stil Propaganda generieren lässt. | |
Seitdem bekommt das Thema auch international viel Aufmerksamkeit: So | |
[3][forderte] Anfang der Woche die Führungsriege von OpenAI eine klare | |
Regulierung „superintelligenter“ KI-Systeme. „Superintelligenz wird | |
mächtiger sein als andere Technologien, mit denen die Menschheit in der | |
Vergangenheit zu kämpfen hatte“, heißt es in dem Beitrag. Es brauche eine | |
internationale Regulierungsbehörde ähnlich wie die für Atomkraft. Diese | |
müsse etwa Systeme inspizieren, Audits verlangen und die Einhaltung von | |
Sicherheitsnormen überprüfen können. | |
Zumindest regulativ ist die EU bei diesem Thema ausnahmsweise vorne dran: | |
Mit dem [4][AI Act], einem Gesetz zur Regulierung künstlicher Intelligenz, | |
könnte noch in diesem Jahr das weltweit bislang umfangreichste Regelwerk | |
verabschiedet werden. | |
## Fachleute fordern Verbesserungen | |
Bei der Anhörung in Berlin zeigte sich jedoch: Viele Expert:innen sind | |
nicht davon überzeugt, dass die Regeln in der aktuell vorliegenden Form | |
sinnvoll sind. So kritisierte Wissenschaftler Hacker, dass der aktuelle | |
Entwurf eher dazu geeignet sei, Technologien auszubremsen oder zu | |
verhindern. Googles Textgenerator Bard sei in 180 Ländern verfügbar – aber | |
in der EU nicht. Hacker formulierte folgendes Beispiel: „Wenn wir uns | |
vorstellen, dass mit einer medizinischen KI außerhalb der EU Leben gerettet | |
werden und in der EU nicht – wollen wir das wirklich?“ | |
Jonas Andrulis, Gründer des KI-Unternehmens Aleph Alpha, sagte: „Bei dem | |
Thema ist inhaltliche und ökonomische Souveränität für Deutschland und für | |
Europa entscheidend.“ Deutschland dürfe in dieser Frage nicht einfach nur | |
Kunde der USA sein. Auch Rasmus Rothe, Vorsitzender des KI-Bundesverbandes, | |
sagte: „Es ist wichtig, dass wir Anwendungen hier in Europa schreiben mit | |
unseren Werten.“ | |
Ein Beispiel dafür, was das heißt, gab Sandra Wachter, Professorin für | |
Technologie und Regulierung am Oxford Internet Institute der dortigen | |
Universität: „Jede Designentscheidung spiegelt unsere Werte wider.“ Das | |
beginne schon bei der Auswahl der Trainingsdaten: Sind ausschließlich weiße | |
Gesichter darin oder haben die Entwickler:innen auf Diversität | |
geachtet? | |
Schon deshalb sei es so wichtig, dass auch die Unternehmen personell | |
entsprechend hetrogen aufgestellt sind, mit Menschen mit unterschiedlichen | |
Hintergründen. „KI ist kein Alien, das auf unseren Planeten kommt, das eine | |
bestimmte Gestalt hat, und jetzt bitten wir es, dass es unseren Werten | |
entspricht, sondern KI ist etwas, das wir von Anfang an schaffen“, erklärte | |
Wachter. | |
Wachter gibt auch konkrete Beispiele dafür, was in Sachen Regulierung zu | |
tun wäre: Gehe man in den Supermarkt und kaufe beispielsweise eine | |
Suppendose, müsse da auch draufstehen, was in der Suppe ist. „Das bringt | |
einem aber nur etwas, wenn man auch versteht, was die Inhaltsstoffe sind.“ | |
Daher brauche es zwar Vorgaben zur Transparenz, aber auch ein Wissen über | |
die Technologien. | |
Und gleichzeitig Grenzen: „Es reicht nicht zu sagen, diese Suppe ist | |
giftig. Es muss eine Verantwortung dafür geben, keine giftige Suppe | |
herzustellen.“ Da die Herstellungsketten nicht nur im Lebensmittelbereich, | |
sondern auch bei KI-Anwendungen lang sein können, sprach Wachter sich dafür | |
aus, in der Regulierung Hersteller entlang der gesamten Kette in die | |
Haftung zu nehmen. | |
25 May 2023 | |
## LINKS | |
[1] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
[2] /ChatGPT-mit-Tuecken/!5924109 | |
[3] https://openai.com/blog/governance-of-superintelligence | |
[4] /EU-Regulierung-fuer-ChatGPT-und-Co/!5933999 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
Technologie | |
EU-Kommission | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Debatte im EU-Parlament: Streit um Überwachung mit KI | |
Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche | |
selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln. |