# taz.de -- Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
> Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der | |
> Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu | |
> handeln. | |
Bild: Könnte nicht nur Teil des Problems, sondern auch Teil der Lösung sein: … | |
Die Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren | |
zahlreich und sie waren laut: [1][Künstliche Intelligenz könne zu einer | |
Gefahr für die Menschheit werden], sie sei in eine Reihe zu stellen mit den | |
Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist: | |
Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie | |
etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen | |
Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des | |
Problems, sondern auch Teil der Lösung sein. | |
Das sollte man im Hinterkopf behalten, [2][wenn das EU-Parlament diese | |
Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI) | |
beschließt]. Denn Ideen für Lösungsansätze werden in den alarmistischen | |
Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste: | |
Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und | |
konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in | |
Gang zu bringen. Vielmehr dienen sie einerseits der eigenen | |
Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die | |
[3][Probleme klein, die es bei KI schon jetzt gibt] und die durch Regeln | |
gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen. | |
Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild- | |
und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das | |
Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch | |
einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem, | |
also die Schwierigkeit, dass häufig nicht einmal die Entwickler:innen | |
selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die | |
zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem | |
Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder | |
bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer | |
menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern | |
lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen | |
Technologie noch weiter ausbauen, als es derzeit schon der Fall ist. | |
Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo | |
wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen | |
Schäden größer wären als der reale oder möglicherweise zu erwartende | |
Nutzen? | |
Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am | |
Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen | |
können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten | |
werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme, | |
die jetzt gelöst werden müssen – und zwar ohne sich von | |
Weltuntergangsszenarien lähmen zu lassen. | |
13 Jun 2023 | |
## LINKS | |
[1] /Folgen-von-Kuenstlicher-Intelligenz/!5936188 | |
[2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
[3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
Schwerpunkt Künstliche Intelligenz | |
künstliche Intelligenz | |
Technologie | |
Panik | |
EU-Parlament | |
Schwerpunkt Künstliche Intelligenz | |
Schwerpunkt Rassismus | |
Schlagloch | |
Antibiotikaresistenz | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien | |
Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen. | |
Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen. | |
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. | |
Folgen von Künstlicher Intelligenz: Ohnmacht durch KI | |
Künstliche Intelligenz dürfte die Menschheit schneller verändern als die | |
Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein? | |
Studie zu multiresistenten Bakterien: KI gegen Krankenhauskeime | |
Gegen einen resistenten Keim wurde ein neuer Wirkstoff entdeckt. Zu dem | |
Durchbruch verhalf eine künstliche Intelligenz. | |
Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen | |
Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der | |
Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist. | |
Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet | |
Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von | |
ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten | |
gilt. |