Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Auswirkungen Künstlicher Intelligenz: Die Ängste, die wir riefen
> Hunderte Expert*innen sehen in Künstlicher Intelligenz das „Risiko der
> Auslöschung“ für die Menschheit. Warum dieses Statement gefährlich ist.
Bild: Bleibt wohl Spielfilm-Fantasie: ein Leben wie in grünen Zeichenkaskaden …
Angst ist ein mächtiges Tier. Es lähmt manche von uns. Andere flüchten
rennend hinter den nächstgelegenen Busch oder stellen sich der Angst
schreiend und hauend im Verteidigungsmodus entgegen. Angst lässt uns Logik
und Ratio vergessen. Und selbst wenn wir eigentlich unterschiedliche Dinge
fürchten: Weil Angst nicht bloße Emotion ist, sondern auch Fantasie über
das, was uns da bedrohen könnte, kann sie uns einen.
Zum Beispiel unter [1][dem Statement, das am Dienstag auf der Seite des
Center for AI Safety online gestellt wurde]. Aus einem einzigen Satz
besteht dieses Statement: „Das Risiko der Ausrottung durch Künstliche
Intelligenz sollte eine weltweite Priorität sein neben anderen Risiken für
die gesamte Gesellschaft wie Pandemien und Atomkrieg.“
Hunderte Menschen haben das unterschrieben: Expert*innen aus der
Wissenschaft, Digitalminister*innen, Fachleute aus der Wirtschaft, die
selbst an KIs arbeiten. [2][Künstliche Intelligenz] stellen sie damit auf
eine Stufe mit Vernichtungswaffen und millionenfach tötenden Krankheiten,
gegen die wir uns – die Pest und Corona haben es bewiesen – nur schwer
wehren können. Was sonst sollen jene bekommen, die den Aufruf und die
Unterzeichner*innen sehen, wenn nicht: Angst.
Welche Anwendungsfelder der Künstlichen Intelligenz in dem Statement
gemeint sind? Das bleibt offen. Es könnte um Chat-KIs gehen, die manchmal
die Wahrheit sagen, manchmal lügen, abhängig davon, was ihre Berechnungen
als wahrscheinlichste Abfolge von Wörtern herausschmeißen.
## Prophezeiung des Untergangs
Es könnte [3][um die Medizin gehen], in der mithilfe von KI große
Fortschritte gemacht werden, etwa in der Erkennung von Krebszellen. Es
könnte um KI gehen, die Logistik verbessern oder bei der Ortung von
militärischen Zielen helfen könnte. Hinter diesem einen Satz könnte sich so
vieles verbergen, selbst Fantasien im Stil der „Matrix“-Reihe oder des
„Terminator“.
KIs, die sich verselbstständigen, die ein Bewusstsein entwickeln, die sich
ihre eigenen Ziele suchen, bei denen die Menschen ihnen sklavisch dienen
müssen, wenn sie ihnen nicht so lange im Weg stehen wollen, bis Agent Smith
sie ins Grab ballert. Stellen Sie sich vor, was Sie wollen. Aber haben Sie
vor allem eins: Angst.
Das Ziel des Statements sei es, eine Diskussion zu ermöglichen, „Bedenken
auszusprechen über manche der größten Risiken fortgeschrittener KIs“. Doch
klare Bedenken werden gar nicht ausgesprochen, nur eine undefinierte
Prophezeiung des Untergangs wird formuliert. Das Konkrete fehlt und damit
wird den Leser*innen des Statements vermutlich auch die Option zur
Diskussion genommen.
## Mehr als reine Emotionen
Wenn hundert Menschen in einem Saal stehen und man ihnen sagt: „Ihr müsst
etwas Schreckliches verhindern“, weiß niemand, um was es geht. Wenn hundert
Menschen in einen Saal gehen, in dessen Ecken Tische stehen, an denen sie
sich jeweils mit einer Gefahr beschäftigen können, werden sie sich wohl die
aussuchen, die für sie am relevantesten scheint, von der sie am meisten
wissen, die vielleicht die größte Neugier weckt. So kann man über seine
Bedenken sprechen. So findet man Lösungen.
Wenn die Unterzeichner*innen des Statements wirklich eine Art
gesamtgesellschaftlichen Workshop starten möchte, an dessen Ende Gefahren
bedacht und möglichst minimiert werden sollen, dann sollten sie diesem
Workshop auch Themen geben und nicht nur reine Emotion.
31 May 2023
## LINKS
[1] https://www.safe.ai/statement-on-ai-risk
[2] /Buch-Palo-Alto-ueber-Silicon-Valley/!5934427
[3] /Kuenstliche-Intelligenz-in-der-Medizin/!5928490
## AUTOREN
Johannes Drosdowski
## TAGS
Medien
GNS
Schwerpunkt Künstliche Intelligenz
EU-Parlament
Schwerpunkt Rassismus
Kolumne Digitalozän
Spotify
Prekäre Arbeit
Reddit
## ARTIKEL ZUM THEMA
Geplante EU-Regulierung von KI: Apokalyptische Ablenkung
Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche
selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.
Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern�…
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin
Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
Kleine Pausen im Alltag: Matrixlöcher bei Whatsapp
Die Brötchentaste hat es zu Bekanntheit gebracht. Leider nur für
Autoparkende. Warum eigentlich? Brötchentasten für alle würden vieles
erleichtern.
Musikstreaming mit KI: Wie das Jüngste Gericht, nur anders
Künstliche Intelligenz verändert das Streaming von Musik. Unser Autor hat
für Playlists von Algorithmen keinen Bedarf.
Buch „Palo Alto“ über Silicon Valley: Von Goldrausch bis KI
In seinem Sachbuch erzählt Malcolm Harris die Geschichte des Silicon Valley
mit all seinen Abgründen neu. Es hat das Zeug zum Klassiker.
Pornografie und Künstliche Intelligenz: Digitale Sexpuppen
Generative KI erreicht die Erotikbranche. Mithilfe von Bildgeneratoren
werden Pornobilder erstellt – auch mit den Köpfen von Prominenten.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.