# taz.de -- Ethik des Silicon Valley: Sie wären gern Götter | |
> Viele Milliardäre des Silicon Valley hängen fragwürdigen ethischen | |
> Konzepten an. Dass sie die Entwicklung einer Super-KI vorantreiben, | |
> sollte zu denken geben. | |
Bild: Mit dem Terminator Richtung Transhumanismus? | |
Es gibt zwei laute Gruppen in der KI-Debatte: Diejenigen, die von einer | |
Utopie schwärmen, in der eine Superintelligenz, eine sogenannte Allgemeine | |
Künstliche Intelligenz (Artificial General Intelligence, AGI), der | |
Menschheit ein Leben auf mehreren Planeten ohne Krankheiten oder Klimakrise | |
ermöglicht. Und diejenigen, die davor warnen, dass genau diese AGI außer | |
Kontrolle geraten und die Menschheit auslöschen könnte. | |
Utopie oder Apokalypse: Die Szenarien könnten nicht weiter voneinander | |
entfernt sein. Doch die Vertreter*innen beider Ideen gleichen sich – | |
sowohl in ihrer Prämisse als auch im Effekt ihrer schrillen | |
Heilsversprechen und Warnungen. Die Prämisse: Die Superintelligenz kommt | |
und sie wird revolutionäre Folgen haben. Der Effekt: Die Allgemeine | |
Künstliche Intelligenz muss von ihnen entwickelt werden. Denn wer an die | |
Utopie glaubt, will sie sowieso erreichen. Und wer vor der Apokalypse | |
warnt, will AGI entwickeln, bevor es andere tun, die sich weniger um deren | |
Sicherheit sorgen. | |
Aber ist die Superintelligenz wirklich die unausweichliche Konsequenz, auf | |
die wir zusteuern? Das kann niemand seriös vorhersagen. Der führende | |
KI-Forscher von Meta Yann LeCun hält AGI mit den aktuellen Mitteln für kaum | |
erreichbar. Der einst bei OpenAI für Prognosen zuständige Forscher Danil | |
Kokotajlo meint hingegen, die Allgemeine Künstliche Intelligenz könnte | |
schon 2027 durch Skalierung der aktuellen Technik der Sprachmodelle | |
erreicht werden. | |
Sowohl das Versprechen der KI-Utopie als auch die Warnungen vor der | |
KI-Apokalypse führen dazu, dass alltägliche Probleme, die KI bereits jetzt | |
aufwirft, nichtig erscheinen: Datensätze, die Vorurteile weitertragen, oder | |
der Einsatz von KI an Gerichten, der zu Diskriminierung und falschen | |
Urteilen führt. Die Probleme verblassen vor den schrillen Zukunftsvisionen. | |
Das ist kein Zufall. Denn egal ob sie die KI-Entwicklung beschleunigen | |
wollen oder vor der Monster-KI warnen – viele führende Köpfe im [1][Silicon | |
Valley] teilen ein Bündel an Ideen. | |
## Die Zukunft im Blick, mit Scheuklappen für die Gegenwart | |
Die Wissenschaftler*innen Timnit Gebru, ehemals Co-Chefin der | |
KI-Ethik-Abteilung bei Google, und der Philosoph und Historiker Émile P. | |
Torres nennen sie TESCREALists. Hinter dem Akronym verbirgt sich ein Bündel | |
an Ideologien. Die drei bekanntesten sind der Transhumanismus, der | |
Longtermismus und der Effektive Altruismus. | |
Grob zusammengefasst: Beim Transhumanismus geht es darum, die menschliche | |
Spezies durch technische Optimierung über sich selbst und die Natur | |
hinauswachsen zu lassen. | |
Effektive Altruist*innen wollen das maximale Glück für möglichst viele | |
Menschen schaffen. So landen auch sie bei der technisch optimierten | |
Menschheit. Es gilt als ethischer, möglichst viel Geld zu verdienen und es | |
zu investieren, weil man damit mehr erreichen könne, als heute etwa bei | |
einer NGO zu arbeiten. | |
Der [2][Longtermismus] erweitert den Effektiven Altruismus um die zeitliche | |
Dimension und die Idee, dass durch technische Optimierung in Zukunft viel | |
mehr Menschen auf mehr Planeten oder gar in digitalen Welten leben können. | |
Das potenziell erreichbare Glück in der Zukunft wäre also größer als das | |
heutige. Es wäre dementsprechend ethischer, heute einen kleinen Teil zur | |
Besiedelung des Mars oder zur Entwicklung einer Super-KI beizutragen, als | |
etwa den Hunger auf der Welt zu beenden. So führen diese Ideologien dazu, | |
dass ihre Anhänger*innen möglichst viel Geld anhäufen und es in | |
Science-Fiction investieren, anstatt reale Probleme anzugehen. | |
## Die Ideologie wird nicht verheimlicht | |
Kritiker*innen bezeichnen Torres und Gebrus Kritik als linke | |
Verschwörungstheorie. Dabei geben viele Tech-Bosse ihre Ideologie offen | |
preis. [3][Elon Musk] postete auf X etwa zu einem Buch eines Vordenkers des | |
Effektiven Altruismus: „Das stimmt eng mit meiner Philosophie überein“, | |
gleichzeitig treibt Musk [4][eine Marsmission voran], um seine | |
Besiedlungsfantasien zu verwirklichen. Der Investor Marc Andreessen | |
bezeichnete sich 2023 in seiner Twitter-Bio selbst als TESCREAList. [5][Sam | |
Altman], der sich zwar von Longtermismus und Effektivem Altruismus | |
distanzierte, trug sich gleichzeitig auf eine Warteliste ein, um sein | |
Gehirn digitalisieren zu lassen. | |
Das alles mag absurd klingen. Und wahrscheinlich sind die genannten | |
Ideologien eher lose verbunden und treiben nur wenige Tech-Bosse täglich in | |
ihrem Handeln an. Doch es lohnt sich, im Kopf zu behalten, dass reiche und | |
mächtige Männer wie Musk oder Altman offensichtlich lieber darüber | |
nachdenken, wie sie in Zukunft Galaxien besiedeln und die menschliche | |
Spezies umgestalten können, als sich mit real existierenden | |
Ungerechtigkeiten zu beschäftigen. Dazu muss man keine Verschwörungstheorie | |
entwickeln, denn das sagen sie selbst und zeigen es mit ihren | |
Investitionen. | |
Ob ihre Ideen Quatsch sind oder nicht – mit ihrem Einfluss und ihrem Geld | |
gestalten sie die Welt. Diskriminierung, Datenschutz oder fehlerhafte | |
Antworten von Chatbots drohen hinter den schrillen Zukunftsvisionen | |
unterzugehen. Es liegt an Zivilgesellschaft und Politik, auf diese Probleme | |
hinzuweisen und sich nicht von Doomer*innen oder Utopist*innen | |
vereinnahmen zu lassen. | |
Die Zukunftsvisionen komplett zu ignorieren, kann jedoch auch nicht die | |
Lösung sein. Denn selbst wenn man glaubt, die Wahrscheinlichkeit für eine | |
durch KI ausgelöste Katastrophe sei gering, lohnt es sich doch, | |
sicherzustellen, dass sie gegen null geht. Nur dürfen wir darüber eben | |
nicht das Heute vergessen. | |
Statt einer kaum definierbaren Allgemeinen Künstlichen Intelligenz | |
nachzueifern, fordern Torres und Gebru, kleinteilige KI-Systeme für | |
spezifische Anwendungen zu entwickeln. Solche Systeme wären leichter zu | |
überprüfen und würden weniger Gefahren bergen. Dieser Weg scheint jedoch | |
kaum gangbar, solange [6][die mächtigsten Männer der KI-Welt] lieber ihren | |
gottgleichen Visionen von Superintelligenz, digitalen Gehirnen und | |
intergalaktischen Zivilisationen frönen. | |
10 Jul 2024 | |
## LINKS | |
[1] https://monde-diplomatique.de/artikel/!6001177 | |
[2] /Elon-Musk-und-das-X/!5955322 | |
[3] /Elon-Musk-und-die-AfD/!6009023 | |
[4] https://en.wikipedia.org/wiki/SpaceX_Mars_Colonization_Program | |
[5] /Zwischenbilanz-einer-neuen-Technologie/!6006224 | |
[6] https://monde-diplomatique.de/artikel/!6001177 | |
## AUTOREN | |
Moritz Müllender | |
## TAGS | |
Silicon Valley | |
Elon Musk | |
Schwerpunkt Künstliche Intelligenz | |
Raumfahrt | |
Ethik | |
Philosophie | |
GNS | |
Schlagloch | |
Twitter / X | |
Silicon Valley | |
## ARTIKEL ZUM THEMA | |
Zwischenbilanz einer neuen Technologie: Im KI-Taumel | |
Nach dem ersten Hype um die KI-Anwendung ChatGPT ist einiges im Gange. | |
Entwickler setzen auf einen Wissenschaftsschub durch eine Superintelligenz. | |
Elon Musk und das X: Was „Longtermismus“ bedeutet | |
Kritiker*innen bezeichnen die Strömung als „Eugenik unter anderem | |
Namen“. Doch nicht nur Musk ist fasziniert von der Idee des Longtermismus. | |
Buch „Palo Alto“ über Silicon Valley: Von Goldrausch bis KI | |
In seinem Sachbuch erzählt Malcolm Harris die Geschichte des Silicon Valley | |
mit all seinen Abgründen neu. Es hat das Zeug zum Klassiker. |