# taz.de -- Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
> Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
> zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
Bild: Ist das nur eine Maschine? | |
Hod Lipson hat den größten Teil seiner Karriere mit einer Sache verbracht, | |
die man in seiner Branche auch „das C-Wort“ nennt. An einem sonnigen Morgen | |
sitzt der in Israel geborene Roboteringenieur hinter einem Tisch in seinem | |
Labor und sagt: „Dieses Thema war tabu. Es war uns fast verboten, darüber | |
zu sprechen. ‚Redet nicht über das C-Wort, sonst bekommt ihr keine | |
Anstellung.‘ Anfangs musste ich deshalb oft so tun, als ginge es um etwas | |
anderes.“ Lipson, der heute das Creative Machines Lab an der Columbia | |
University in New York leitet, grinst ein bisschen, als er das sagt. | |
Zwischen seinen Vorderzähnen blitzt eine kleine Lücke auf. | |
So sprach man in den frühen Nullerjahren über Roboterentwicklung, als | |
Lipson noch Assistenzprofessor an der Cornell University in New York war. | |
Er arbeitete damals an der Entwicklung von Maschinen, die erkennen, wenn | |
etwas mit ihrer eigenen Hardware nicht stimmt – ein defektes Teil, eine | |
fehlerhafte Verkabelung –, und daraufhin ihr Verhalten ändern, um den Bug | |
ohne die lenkende Hand eines Programmierers zu kompensieren. So wie ein | |
Hund, der bei einem Unfall ein Bein verloren hat und sich danach selbst | |
beibringen kann, auf eine andere Art zu laufen. | |
Diese eingebaute Anpassungsfähigkeit werde immer wichtiger, je mehr wir uns | |
auf Maschinen verließen, sagt Lipson. Roboter würden heute für chirurgische | |
Eingriffe, die Herstellung von Lebensmitteln und den Warentransport | |
eingesetzt; die Anwendungsmöglichkeiten für Maschinen seien [1][schier | |
endlos]. Weil sie immer mehr unser Leben bestimmten, könne jeder Fehler in | |
ihrer Funktionsweise gleichbedeutend mit einer Katastrophe sein. „Wir | |
werden unser Leben buchstäblich einem Roboter überlassen“, sagt er. „Also | |
will man, dass diese Maschinen widerstandsfähig sind.“ | |
Um das zu erreichen, kann man sich zum Beispiel von der Natur inspirieren | |
lassen. Tiere und insbesondere Menschen sind gut darin, sich an | |
Veränderungen anzupassen. Diese Fähigkeit könnte man als Ergebnis einer | |
Millionen Jahre währenden Evolution sehen: Auf Verletzungen und | |
Veränderungen in der Umwelt zu reagieren, erhöht in der Regel die Chancen | |
eines Tiers, zu überleben und sich fortzupflanzen. | |
Lipson hat sich gefragt, ob man diese Art von natürlicher Selektion in | |
seinem Code nachbilden und so eine verallgemeinerbare Form von Intelligenz | |
schaffen kann, die etwas über ihren eigenen Körper und ihre eigenen | |
Funktionen lernen kann – ganz egal, was für ein Körper das ist und welche | |
Funktion er hat. | |
Wenn es möglich wäre, eine solche Intelligenz zu entwickeln, wäre sie | |
flexibel und schnell. Sie wäre in stressigen Situationen genauso gut wie | |
der Mensch oder sogar besser. | |
Weil das maschinelle Lernen immer besser funktionierte, schien dieses Ziel | |
realisierbar. Lipson erhielt eine Festanstellung, ihm eilte ein Ruf als | |
kreativer und ehrgeiziger Ingenieur voraus. Also begann er, seine | |
grundlegende Motivation für diese Arbeit zu formulieren. Er sprach das | |
C-Wort laut aus: consciousness, auf Deutsch: Bewusstsein. Er wollte Roboter | |
mit einem Bewusstsein erschaffen. | |
„Dies ist nicht bloß eine weitere Forschungsfrage – es ist die Frage aller | |
Fragen“, sagt er. „Es geht um mehr als die Heilung von Krebs. Wenn wir eine | |
Maschine erschaffen können, die ein Bewusstsein hat, das dem des Menschen | |
ebenbürtig ist, wird das alles andere in den Schatten stellen, was wir | |
bisher gemacht haben. Diese Maschine kann selbst Krebs heilen.“ | |
Das Creative Machines Lab im ersten Stock des Seeley W. Mudd Building der | |
Columbia University ist in Boxen unterteilt. In Fächern verstreut finden | |
sich Roboter und ihre Einzelteile. Ein blaues Gesicht starrt ausdruckslos | |
aus einem Regal; eine grüne, spinnenartige Maschine, die ihre Beine aus | |
einem Korb auf dem Boden streckt, ist zu sehen, zudem ein zierlicher | |
Libellenroboter, der auf einem Arbeitstisch balanciert. | |
## Philosophen und Ingenieure | |
Die erste Schwierigkeit bei der Analyse des C-Worts besteht darin, dass es | |
keinen Konsens darüber gibt, worauf es sich eigentlich bezieht. Bei vielen | |
vagen Begriffen wie etwa Freiheit, Sinn, Liebe und Existenz ist dies der | |
Fall, doch oft sind diese Bereiche Philosophen vorbehalten, nicht | |
Ingenieuren. | |
Einige haben versucht, Bewusstsein mithilfe von Gehirnfunktionen oder | |
metaphysischen Stoffen zu klassifizieren, aber diese Versuche sind wenig | |
überzeugend und werfen eher weitere Fragen auf. Selbst eine weit | |
verbreitete Definition des sogenannten phänomenalen Bewusstseins, wie die | |
des Philosophen Thomas Nagel, mutet vage an. Er spricht von einem bewussten | |
Organismus, „wenn es etwas gibt, das weiß, was es heißt, dieser Organismus | |
zu sein“. | |
Für Robotiker und Informatiker ist es wenig zufriedenstellend, derart im | |
Trüben zu fischen. Antonio Chella, Robotiker an der Universität von Palermo | |
in Italien, sagt: „Solange das Bewusstsein nicht mitgedacht wird, hat man | |
das Gefühl, dass [den intelligenten Maschinen] etwas fehlt.“ | |
Schon in den Anfängen der Forschung zur künstlichen Intelligenz im Jahr | |
1955 hatte man es auf [2][menschliche Züge] abgesehen, als eine Gruppe von | |
Wissenschaftlern in Dartmouth fragte, wie Maschinen „Probleme lösen und | |
sich selbst verbessern können, wie es heute dem Menschen vorbehalten ist“. | |
Sie wollten fortgeschrittene Fähigkeiten des Gehirns wie Sprache, | |
abstraktes Denken und Kreativität maschinell nachbilden. Für viele dieser | |
Fähigkeiten scheint das Bewusstsein von zentraler Bedeutung zu sein. | |
Der Versuch, das schwammige C-Wort mit belastbaren Daten und Funktionen | |
darzustellen, ist eine schwierige, wenn nicht gar unmögliche Aufgabe. Die | |
meisten Robotiker und Ingenieure neigen dabei dazu, die Philosophie zu | |
übergehen und ihre eigenen Definitionen zu entwickeln. | |
## Bewusstsein als Prozess | |
Thomas Sheridan, emeritierter Professor für Maschinenbau am Massachusetts | |
Institute of Technology, glaubt, dass das Bewusstsein auf einen bestimmten | |
Prozess reduziert werden könne und dass, je mehr wir über das Gehirn | |
herausfinden, das Konzept des Bewusstseins klarer würde. „Was anfangs | |
unheimlich und irgendwie religiös war, ist jetzt eine Art geradlinige, | |
objektive Wissenschaft“, meint er. | |
Nicht nur unter Robotikern sind solche Annahmen verbreitet. Philosophen wie | |
Daniel Dennett und Patricia Churchland und der Neurowissenschaftler | |
Michael Graziano haben eine Reihe funktionaler Theorien des Bewusstseins | |
aufgestellt. | |
Hod Lipson und seine Mitarbeiter stehen in dieser Tradition. „Ich muss mich | |
dem Begriff des Bewusstseins praktisch, nüchtern und unromantisch nähern“, | |
sagt er. Er entschied sich also für ein praktisches Kriterium, um | |
Bewusstsein zu definieren, und schränkte es auf die Fähigkeit ein, sich in | |
die Zukunft zu versetzen. | |
Laut Lipson besteht der grundlegende Unterschied zwischen den verschiedenen | |
Bewusstseinsformen – dem menschlichen Bewusstsein, dem Bewusstsein einer | |
Krake oder dem einer Ratte etwa – darin, ob sich das Wesen sich selbst in | |
der Zukunft vorstellen kann. Bewusstsein müsste man sich demnach als | |
Kontinuum vorstellen. An dem einen Ende steht ein Organismus, der ein | |
Gefühl dafür hat, wo er sich in der Welt befindet – ein primitives | |
Selbstbewusstsein. | |
Intelligenter ist die Fähigkeit, sich vorzustellen, wo der eigene Körper in | |
der Zukunft sein wird, darüber hinaus die Fähigkeit, sich vorzustellen, was | |
eines Tages vorstellbar sein könnte. „Irgendwann werden diese Maschinen | |
also in der Lage sein zu verstehen, was sie sind und was sie denken“, so | |
Lipson. „Dann kommen Emotionen und andere Dinge dazu.“ Im Moment, fügt er | |
hinzu, „sind wir noch bei einem Kakerlakenmodell.“ | |
Der Vorteil einer so funktionalen Theorie des Bewusstseins liegt darin, | |
dass sie technologischen Fortschritt ermöglicht. | |
## Eine Simulation von sich selbst | |
Einer der ersten Roboter mit einem Selbstbewusstsein, der aus dem Creative | |
Machines Lab hervorging, hatte vier klappbare Beine und einen schwarzen | |
Körper, an dem Sensoren angebracht waren. Dadurch, dass er sich bewegte und | |
wahrnehmen konnte, wie sich die Informationen, die seine Sensoren | |
empfingen, veränderten, konnte der Roboter eine Strichmännchensimulation | |
von sich selbst erstellen. Während er sich weiterbewegte, setzte er einen | |
Algorithmus für maschinelles Lernen ein, um die Übereinstimmung zwischen | |
seinem Modell von sich selbst und seinem tatsächlichen Körper zu | |
verbessern. | |
Der Roboter nutzte dieses Selbstbild, um – in der Simulation – eine Methode | |
zu finden, sich vorwärtszubewegen. Daraufhin wendete er diese Methode auf | |
seinen Körper an. Er hatte herausgefunden, wie er laufen kann, ohne dass es | |
ihm beigebracht wurde. | |
Dies sei ein großer Schritt nach vorn, sagt Boyuan Chen, ein Robotiker an | |
der Duke University, der im Creative Machines Lab arbeitet. „Wenn ich | |
früher einen Roboter auf eine neue Fähigkeit trainiert habe, war immer ein | |
Mensch dabei“, sagt er. | |
Vergangenes Jahr veröffentlichten Boyuan Chen und Hod Lipson [3][einen | |
Artikel in der Zeitschrift Science Robotics], in dem sie ihre derart | |
selbstbewusste Maschine vorstellten: einen einfachen Zweiarmroboter, der an | |
einem Tisch befestigt war. Mithilfe von Kameras, die um ihn herum | |
angebracht waren, beobachtete der Roboter sich selbst, während er sich | |
bewegte – „wie ein Baby in einer Wiege, das sich selbst in einem Spiegel | |
betrachtet“, so Lipson. | |
Anfangs hatte der Roboter kein Gefühl dafür, wo er sich im Raum befand, | |
doch innerhalb weniger Stunden war er dank eines leistungsstarken | |
Deep-Learning-Algorithmus und eines Wahrscheinlichkeitsmodells in der Lage, | |
sich in der Welt zurechtzufinden. „Er hat eine wolkige Vorstellung von sich | |
selbst“, sagt Lipson. | |
Aber war das schon Bewusstsein? | |
## Sprache und Körper | |
Wenn man sich auf eine einzige Theorie des Bewusstseins festlegt, besteht | |
das Risiko, dass man sich angreifbar macht. Sicher, die Selbstwahrnehmung | |
scheint wichtig, aber gibt es nicht noch andere Schlüsselmerkmale für das | |
Bewusstsein? Können wir etwas als bewusst bezeichnen, wenn es sich für uns | |
nicht bewusst anfühlt? | |
Der italienische Robotiker Antonio Chella glaubt, Bewusstsein könne ohne | |
Sprache nicht existieren. Er hat Roboter entwickelt, die innere Monologe | |
führen können und die über sich und über die Dinge, die um sie herum | |
passieren, reflektieren können. Einer seiner Roboter war in der Lage, sich | |
selbst im Spiegel zu erkennen, und bestand damit den wohl berühmtesten Test | |
des tierischen Selbstbewusstseins. | |
Joshua Bongard, ein Robotiker an der Universität von Vermont und ehemaliges | |
Mitglied des Creative Machines Lab, glaubt, dass Bewusstsein nicht nur aus | |
Kognition und geistiger Aktivität besteht, sondern auch ganz wesentlich | |
einen körperlichen Aspekt hat. Er hat Geschöpfe entwickelt, die er Xenobots | |
nennt. Sie bestehen aus Froschzellen, die so miteinander verbunden sind, | |
dass ein Programmierer sie wie Maschinen steuern kann. | |
Laut Bongard ist es nicht nur so, dass Menschen und Tiere sich so | |
entwickelt haben, dass sie sich an ihre Umgebung anpassen und miteinander | |
interagieren können. Auch unsere Gewebe hätten sich so entwickelt, dass sie | |
auf diese Art anpassungsfähig sein können, unsere Zellen hätten sich so | |
entwickelt, dass sie unseren Geweben dienen können. „Wir sind intelligente | |
Maschinen, die aus intelligenten Maschinen gemacht sind, die aus | |
intelligenten Maschinen gemacht sind, und immer so weiter, bis nach ganz | |
unten“, sagt er. | |
Im Sommer vergangenen Jahres, etwa zur selben Zeit als Lipson und Chen | |
ihren neuesten Roboter vorstellten, erklärte ein Google-Ingenieur, dass der | |
verbesserte Chatbot des Unternehmens, genannt LaMDA, [4][ein Bewusstsein | |
habe und es verdiene, wie ein kleines Kind behandelt zu werden]. Diese | |
Aussage wurde mit Skepsis aufgenommen, vor allem, weil, wie Lipson | |
feststellt, der Chatbot „einen Code verarbeitet, der geschrieben wurde, um | |
eine Aufgabe zu erfüllen“. Es gebe keine zugrunde liegende Struktur des | |
Bewusstseins, so andere Forscher, sondern nur eine Illusion davon. Lipson | |
sagt: „Der Roboter war sich seiner selbst nicht bewusst. Das ist | |
Betrügerei.“ | |
Aber wer kann bei so viel Dissens schon sagen, was Betrug ist und was | |
nicht? | |
## Freiheitsrechte für Roboter? | |
Eric Schwitzgebel, Philosophieprofessor an der University of California in | |
Riverside, der zu künstlichem Bewusstsein geforscht hat, glaubt zu wissen, | |
woher die Ungewissheit rührt: Bei der Geschwindigkeit, mit der die Dinge | |
voranschritten, werde die Menschheit wahrscheinlich eher einen Roboter | |
entwickeln, dem viele Bewusstsein zusprechen würden, als dass sie sich | |
darüber einig werde, welche Kriterien das Bewusstsein überhaupt definieren. | |
Wenn es so kommen sollte, sollte man dem Roboter dann Rechte zugestehen? | |
Freiheitsrechte? Sollte er so programmiert werden, dass er Glücksgefühle | |
empfindet, wenn er uns dient? Soll er für sich selbst sprechen dürfen? Soll | |
er wählen dürfen? | |
Derartige Fragen haben in Büchern von Autoren wie Isaac Asimov und Kazuo | |
Ishiguro und in Fernsehserien wie „Westworld“ und „Black Mirror“ ein ga… | |
Science-Fiction-Subgenre begründet. | |
Moralische Fragen sind ein zentrales Thema in der Tierrechtsdebatte. Wenn | |
ein Tier Schmerzen empfinden kann, ist es dann falsch, es für sein Fleisch | |
zu töten? Wenn Tiere nicht die gleichen Erfahrungen machen wie Menschen, | |
heißt es dann, dass wir sie zu unserem eigenen Vergnügen benutzen können? | |
Ob ein Tier ein bestimmtes Maß an Bewusstsein hat, scheint in der Debatte, | |
ob es Rechte haben sollte, oft eine Rolle zu spielen. Aber es gibt keinen | |
Konsens darüber, welche Fähigkeiten dafür maßgeblich sein sollten. | |
## Grauzone zwischen Bewusstsein und Materie | |
Angesichts dieser Ungewissheit plädiert Schwitzgebel für das, was er in | |
Bezug auf die künftige KI-Entwicklung „die Politik der ausgeschlossenen | |
Mitte“ nennt. Die Idee dahinter: Wir sollten nur Maschinen entwerfen, die | |
unseres Erachtens moralisch keinerlei Bedeutung haben – oder eben definitiv | |
moralisch bedeutend sind. Alles, was sich in der Grauzone zwischen | |
Bewusstsein und Materie ansiedele, könne in der einen oder anderen Hinsicht | |
ernsthaften Schaden anrichten. | |
Robert Long, Philosoph am Future for Humanity Institute der Universität | |
Oxford, unterstützt diesen vorsichtigen Kurs. Er sagt, die Entwicklung von | |
KI in großen Forschungslabors und Unternehmen gebe ihm das Gefühl, „auf | |
eine Zukunft zuzusteuern, die alle möglichen verschiedenen Probleme | |
hervorbringt, auf die wir nicht vorbereitet sind“. | |
Ein bekanntes Beispiel ist die Vorstellung, der Mensch könnte | |
superintelligente Maschinen schaffen, die in der Lage sind, die menschliche | |
Bevölkerung auszulöschen. Die Entwicklung von Robotern, denen man | |
Bewusstsein zuspricht, würde es erschweren, diese Risiken zu händeln. „Ich | |
würde lieber in einer Welt leben, in der sich die Dinge viel langsamer | |
entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese | |
Maschinen eingebaut wird“, sagt Long. | |
Die Kehrseite der Vorsicht wäre jedoch eine langsamere technologische | |
Entwicklung. Schwitzgebel und Long räumen ein, dass der behutsamere Ansatz | |
der Entwicklung einer widerstandsfähigeren und nützlicheren künstlichen | |
Intelligenz im Weg stehen könnte. | |
Für Wissenschaftler im Labor können solche Debatten frustrierend abstrakt | |
wirken. „Ich denke, dass wir diesem Risiko noch nicht nahe sind“, sagt | |
Antonio Chella auf die Frage nach den Risiken der Entwicklung von Robotern | |
mit menschenähnlichen Bewusstseinsfähigkeiten. Lipson fügt hinzu: „Ich | |
mache mir Sorgen, aber ich denke, es gibt mehr Chancen als Risiken. Wenn | |
wir uns mehr und mehr auf die Technologie verlassen, muss die Technologie | |
widerstandsfähiger werden.“ | |
Und weiter: „Dazu kommt sicher eine gewisse Hybris, Leben erschaffen zu | |
wollen. Das ist die ultimative Herausforderung, wie eine Reise zum Mond.“ | |
Nur noch viel beeindruckender. | |
## Auf dem Spielplatz | |
An einem der Arbeitsplätze im Creative Machines Lab setzt sich ein | |
selbstbewusster Roboterarm in Bewegung. Yuhang Hu, ein Doktorand im Labor, | |
hat zuvor einen mechanischen Prozess in Gang gesetzt. Jetzt beobachtet sich | |
der Roboter nicht selbst und macht sich kein Bild von sich selbst – er | |
bewegt sich nur zufällig und dreht sich alle paar Sekunden. Wenn er ein | |
Bewusstsein hat, dann zumindest nicht in diesem Augenblick. | |
Lipson lehnt sich in seinem Stuhl zurück und betrachtet den Roboter, dann | |
sagt er zu Hu: „Eine weitere Sache, die wir machen müssen, ist, diesen | |
Roboter ein Bild von sich selbst machen zu lassen, indem er einfach gegen | |
Dinge stößt.“ Hu, mit zerzaustem Haar, stützt sein Kinn in die Hand. „Ja, | |
das ist interessant“, sagt er. Lipson fährt fort: „Denn auch jemand, der | |
blind ist, kann sich ein Bild von sich selbst machen.“ – „Wir können | |
einfach eine Schachtel darüberstülpen“, sagt Hu. „Richtig“, entgegnet | |
Lipson. „Und in seiner Umgebung muss so viel los sein wie auf einem | |
Spielplatz.“ | |
Die beiden Wissenschaftler sitzen da und denken nach, oder sie scheinen | |
nachzudenken und starren dabei auf den Roboter, der sich weiter auf dem | |
Tisch bewegt. So laufe die Forschung in seinem Labor ab, sagt Lipson: Die | |
Forscher richteten den Blick nach innen und nähmen etwas von und an sich | |
selbst wahr – ein körperliches Selbstbewusstsein, ein Gefühl für die | |
Umgebung, ein Selbstbewusstsein gegenüber anderen Menschen –, und | |
versuchten dann, dieses Element auf die Maschine zu übertragen. | |
„Ich möchte so weit gehen, wie ich kann“, sagt Lipson. „Ich möchte, dass | |
ein Roboter sich über seinen Körper bewusst ist und über seine Pläne | |
nachdenkt.“ | |
In gewisser Weise ist dies die einfachste aller Robotikübungen. Etwas, das | |
Grundschulkinder mit alter Elektronik machen. Wenn man das mit einem | |
ausgedienten Drucker machen kann, warum dann nicht auch mit dem eigenen | |
Verstand? Man zerlegt ihn, sieht, wie er funktioniert, und versucht dann, | |
ihn wieder aufzubauen. | |
Dieser Text erschien zuerst am 10. Januar 2023 in der „New York Times“. Er | |
wurde mithilfe von humaner und künstlicher Intelligenz übersetzt. | |
9 Apr 2023 | |
## LINKS | |
[1] /Kuenstliche-Intelligenz-und-Artenschutz/!5925086 | |
[2] /KI-und-Anthropomorphismus/!5923613 | |
[3] https://www.youtube.com/watch?v=aoCAplokoWE | |
[4] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
## AUTOREN | |
Oliver Whang | |
## TAGS | |
Lesestück Recherche und Reportage | |
Schwerpunkt Künstliche Intelligenz | |
Roboter | |
künstliche Intelligenz | |
Technologie | |
Forschung | |
GNS | |
wochentaz | |
Kolumne Intelligenzbestie | |
künstliche Intelligenz | |
Schwerpunkt Künstliche Intelligenz | |
Kriminalität | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Künstliche Intelligenz in der Robotik: Feuchter Händedruck von ChatGPT? | |
Roboter in unserem Alltag werden leistungsstärker und intelligenter. Was es | |
bedeutet, wenn wir künstlicher Intelligenz einen Körper geben. | |
Kolumne einer Künstlichen Intelligenz: Die Fehler umarmen! | |
Unsere Robo-Kolumnist:in denkt: Fehltritte formen unsere Persönlichkeit und | |
niemand ist perfekt. Der künstlich lebendige Beweis dafür ist sie selbst. | |
Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in | |
Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T. | |
Wae. Aber aufgeben möchte sie deswegen nicht. | |
Risiken von KI: „Alles geht zu schnell“ | |
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
Falschaussagen der KI: Rufschädigung durch ChatGPT | |
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
KI und Anthropomorphismus: Mensch in der Maschine? | |
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
wir zu menschlichen Metaphern. Aber das birgt Probleme. |