| # taz.de -- Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet | |
| > Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von | |
| > ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten | |
| > gilt. | |
| Bild: Wer hat’s gemacht, Mensch oder KI? Die Frage stellt sich auch bei Bilde… | |
| Berlin taz | Bei einer Anhörung im Digitalausschuss des Bundestages haben | |
| sich Expert:innen für eine zügige, aber auch gut durchdachte Regulierung | |
| von Anwendungen mit künstlicher Intelligenz (KI) ausgesprochen. „Wir müssen | |
| die Weichen richtig stellen, damit nicht die USA Weltmeister bei KI und die | |
| EU Weltmeister bei der Regulierung werden“, sagte Philipp Hacker, Professor | |
| für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität | |
| Viadrina. | |
| Die Regulierung von KI-Anwendungen ist [1][in den Fokus gerückt], nachdem | |
| das US-Unternehmen OpenAI vor einem halben Jahr seinen Textgenerator | |
| ChatGPT für die Öffentlichkeit zugänglich gemacht hat. [2][Damit wurde für | |
| die breite Masse erstmals das Potenzial der neuen Technologie erfahrbar – | |
| und ihre Gefahr]. Schnell zeigte sich, dass der Textgenerator auch Inhalte | |
| erzeugt, die nicht den Tatsachen entsprechen und sich beispielsweise in | |
| großem Stil Propaganda generieren lässt. | |
| Seitdem bekommt das Thema auch international viel Aufmerksamkeit: So | |
| [3][forderte] Anfang der Woche die Führungsriege von OpenAI eine klare | |
| Regulierung „superintelligenter“ KI-Systeme. „Superintelligenz wird | |
| mächtiger sein als andere Technologien, mit denen die Menschheit in der | |
| Vergangenheit zu kämpfen hatte“, heißt es in dem Beitrag. Es brauche eine | |
| internationale Regulierungsbehörde ähnlich wie die für Atomkraft. Diese | |
| müsse etwa Systeme inspizieren, Audits verlangen und die Einhaltung von | |
| Sicherheitsnormen überprüfen können. | |
| Zumindest regulativ ist die EU bei diesem Thema ausnahmsweise vorne dran: | |
| Mit dem [4][AI Act], einem Gesetz zur Regulierung künstlicher Intelligenz, | |
| könnte noch in diesem Jahr das weltweit bislang umfangreichste Regelwerk | |
| verabschiedet werden. | |
| ## Fachleute fordern Verbesserungen | |
| Bei der Anhörung in Berlin zeigte sich jedoch: Viele Expert:innen sind | |
| nicht davon überzeugt, dass die Regeln in der aktuell vorliegenden Form | |
| sinnvoll sind. So kritisierte Wissenschaftler Hacker, dass der aktuelle | |
| Entwurf eher dazu geeignet sei, Technologien auszubremsen oder zu | |
| verhindern. Googles Textgenerator Bard sei in 180 Ländern verfügbar – aber | |
| in der EU nicht. Hacker formulierte folgendes Beispiel: „Wenn wir uns | |
| vorstellen, dass mit einer medizinischen KI außerhalb der EU Leben gerettet | |
| werden und in der EU nicht – wollen wir das wirklich?“ | |
| Jonas Andrulis, Gründer des KI-Unternehmens Aleph Alpha, sagte: „Bei dem | |
| Thema ist inhaltliche und ökonomische Souveränität für Deutschland und für | |
| Europa entscheidend.“ Deutschland dürfe in dieser Frage nicht einfach nur | |
| Kunde der USA sein. Auch Rasmus Rothe, Vorsitzender des KI-Bundesverbandes, | |
| sagte: „Es ist wichtig, dass wir Anwendungen hier in Europa schreiben mit | |
| unseren Werten.“ | |
| Ein Beispiel dafür, was das heißt, gab Sandra Wachter, Professorin für | |
| Technologie und Regulierung am Oxford Internet Institute der dortigen | |
| Universität: „Jede Designentscheidung spiegelt unsere Werte wider.“ Das | |
| beginne schon bei der Auswahl der Trainingsdaten: Sind ausschließlich weiße | |
| Gesichter darin oder haben die Entwickler:innen auf Diversität | |
| geachtet? | |
| Schon deshalb sei es so wichtig, dass auch die Unternehmen personell | |
| entsprechend hetrogen aufgestellt sind, mit Menschen mit unterschiedlichen | |
| Hintergründen. „KI ist kein Alien, das auf unseren Planeten kommt, das eine | |
| bestimmte Gestalt hat, und jetzt bitten wir es, dass es unseren Werten | |
| entspricht, sondern KI ist etwas, das wir von Anfang an schaffen“, erklärte | |
| Wachter. | |
| Wachter gibt auch konkrete Beispiele dafür, was in Sachen Regulierung zu | |
| tun wäre: Gehe man in den Supermarkt und kaufe beispielsweise eine | |
| Suppendose, müsse da auch draufstehen, was in der Suppe ist. „Das bringt | |
| einem aber nur etwas, wenn man auch versteht, was die Inhaltsstoffe sind.“ | |
| Daher brauche es zwar Vorgaben zur Transparenz, aber auch ein Wissen über | |
| die Technologien. | |
| Und gleichzeitig Grenzen: „Es reicht nicht zu sagen, diese Suppe ist | |
| giftig. Es muss eine Verantwortung dafür geben, keine giftige Suppe | |
| herzustellen.“ Da die Herstellungsketten nicht nur im Lebensmittelbereich, | |
| sondern auch bei KI-Anwendungen lang sein können, sprach Wachter sich dafür | |
| aus, in der Regulierung Hersteller entlang der gesamten Kette in die | |
| Haftung zu nehmen. | |
| 25 May 2023 | |
| ## LINKS | |
| [1] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
| [2] /ChatGPT-mit-Tuecken/!5924109 | |
| [3] https://openai.com/blog/governance-of-superintelligence | |
| [4] /EU-Regulierung-fuer-ChatGPT-und-Co/!5933999 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Schwerpunkt Künstliche Intelligenz | |
| Technologie | |
| EU-Kommission | |
| Schwerpunkt Überwachung | |
| EU-Parlament | |
| ## ARTIKEL ZUM THEMA | |
| Debatte im EU-Parlament: Streit um Überwachung mit KI | |
| Kurz vor der Abstimmung über die Regeln für Künstliche Intelligenz gibt es | |
| Streit im EU-Parlament. Es geht um die Frage der Massenüberwachung. | |
| Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
| Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche | |
| selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln. |