Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
> Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der
> Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu
> handeln.
Bild: Könnte nicht nur Teil des Problems, sondern auch Teil der Lösung sein: …
Die Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren
zahlreich und sie waren laut: [1][Künstliche Intelligenz könne zu einer
Gefahr für die Menschheit werden], sie sei in eine Reihe zu stellen mit den
Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist:
Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie
etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen
Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des
Problems, sondern auch Teil der Lösung sein.
Das sollte man im Hinterkopf behalten, [2][wenn das EU-Parlament diese
Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI)
beschließt]. Denn Ideen für Lösungsansätze werden in den alarmistischen
Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste:
Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und
konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in
Gang zu bringen. Vielmehr dienen sie einerseits der eigenen
Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die
[3][Probleme klein, die es bei KI schon jetzt gibt] und die durch Regeln
gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen.
Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild-
und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das
Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch
einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem,
also die Schwierigkeit, dass häufig nicht einmal die Entwickler:innen
selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die
zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem
Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder
bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer
menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern
lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen
Technologie noch weiter ausbauen, als es derzeit schon der Fall ist.
Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo
wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen
Schäden größer wären als der reale oder möglicherweise zu erwartende
Nutzen?
Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am
Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen
können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten
werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme,
die jetzt gelöst werden müssen – und zwar ohne sich von
Weltuntergangsszenarien lähmen zu lassen.
13 Jun 2023
## LINKS
[1] /Folgen-von-Kuenstlicher-Intelligenz/!5936188
[2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487
[3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210
## AUTOREN
Svenja Bergt
## TAGS
EU-Parlament
Technologie
Schwerpunkt Künstliche Intelligenz
Panik
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Rassismus
Technik
Antibiotikaresistenz
Medien
Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien
Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen.
Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
Folgen von Künstlicher Intelligenz: Ohnmacht durch KI
Künstliche Intelligenz dürfte die Menschheit schneller verändern als die
Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein?
Studie zu multiresistenten Bakterien: KI gegen Krankenhauskeime
Gegen einen resistenten Keim wurde ein neuer Wirkstoff entdeckt. Zu dem
Durchbruch verhalf eine künstliche Intelligenz.
Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen
Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der
Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.
Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet
Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von
ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten
gilt.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.