| # taz.de -- Geplante EU-Regulierung von KI: Apokalyptische Ablenkung | |
| > Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der | |
| > Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu | |
| > handeln. | |
| Bild: Könnte nicht nur Teil des Problems, sondern auch Teil der Lösung sein: … | |
| Die Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren | |
| zahlreich und sie waren laut: [1][Künstliche Intelligenz könne zu einer | |
| Gefahr für die Menschheit werden], sie sei in eine Reihe zu stellen mit den | |
| Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist: | |
| Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie | |
| etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen | |
| Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des | |
| Problems, sondern auch Teil der Lösung sein. | |
| Das sollte man im Hinterkopf behalten, [2][wenn das EU-Parlament diese | |
| Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI) | |
| beschließt]. Denn Ideen für Lösungsansätze werden in den alarmistischen | |
| Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste: | |
| Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und | |
| konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in | |
| Gang zu bringen. Vielmehr dienen sie einerseits der eigenen | |
| Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die | |
| [3][Probleme klein, die es bei KI schon jetzt gibt] und die durch Regeln | |
| gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen. | |
| Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild- | |
| und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das | |
| Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch | |
| einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem, | |
| also die Schwierigkeit, dass häufig nicht einmal die Entwickler:innen | |
| selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die | |
| zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem | |
| Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder | |
| bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer | |
| menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern | |
| lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen | |
| Technologie noch weiter ausbauen, als es derzeit schon der Fall ist. | |
| Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo | |
| wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen | |
| Schäden größer wären als der reale oder möglicherweise zu erwartende | |
| Nutzen? | |
| Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am | |
| Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen | |
| können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten | |
| werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme, | |
| die jetzt gelöst werden müssen – und zwar ohne sich von | |
| Weltuntergangsszenarien lähmen zu lassen. | |
| 13 Jun 2023 | |
| ## LINKS | |
| [1] /Folgen-von-Kuenstlicher-Intelligenz/!5936188 | |
| [2] /EU-Parlament-zur-kuenstlichen-Intelligenz/!5937487 | |
| [3] /Forscherin-ueber-Kuenstliche-Intelligenz/!5937210 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| EU-Parlament | |
| Technologie | |
| Schwerpunkt Künstliche Intelligenz | |
| Panik | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Rassismus | |
| Technik | |
| Antibiotikaresistenz | |
| Medien | |
| Schwerpunkt Künstliche Intelligenz | |
| ## ARTIKEL ZUM THEMA | |
| Staaten wollen Kooperation bei KI: Erstes Treffen in Großbritannien | |
| Beim ersten globalen KI-Gipfel in Großbritannien bleibt vieles im Vagen. | |
| Doch eines haben die Staatsvertreter gemeinsam: Sie betonen die Chancen. | |
| Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�… | |
| Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin | |
| Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI. | |
| Folgen von Künstlicher Intelligenz: Ohnmacht durch KI | |
| Künstliche Intelligenz dürfte die Menschheit schneller verändern als die | |
| Entdeckung des Feuers. Es geht um Grundfragen: Wer wollen wir sein? | |
| Studie zu multiresistenten Bakterien: KI gegen Krankenhauskeime | |
| Gegen einen resistenten Keim wurde ein neuer Wirkstoff entdeckt. Zu dem | |
| Durchbruch verhalf eine künstliche Intelligenz. | |
| Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen | |
| Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der | |
| Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist. | |
| Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet | |
| Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von | |
| ChatGPT erklären Expert:innen im Digitalausschuss, worauf es zu achten | |
| gilt. |