Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
> Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
> zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
Bild: Ist das nur eine Maschine?
Hod Lipson hat den größten Teil seiner Karriere mit einer Sache verbracht,
die man in seiner Branche auch „das C-Wort“ nennt. An einem sonnigen Morgen
sitzt der in Israel geborene Roboteringenieur hinter einem Tisch in seinem
Labor und sagt: „Dieses Thema war tabu. Es war uns fast verboten, darüber
zu sprechen. ‚Redet nicht über das C-Wort, sonst bekommt ihr keine
Anstellung.‘ Anfangs musste ich deshalb oft so tun, als ginge es um etwas
anderes.“ Lipson, der heute das Creative Machines Lab an der Columbia
University in New York leitet, grinst ein bisschen, als er das sagt.
Zwischen seinen Vorderzähnen blitzt eine kleine Lücke auf.
So sprach man in den frühen Nullerjahren über Roboterentwicklung, als
Lipson noch Assistenzprofessor an der Cornell University in New York war.
Er arbeitete damals an der Entwicklung von Maschinen, die erkennen, wenn
etwas mit ihrer eigenen Hardware nicht stimmt – ein defektes Teil, eine
fehlerhafte Verkabelung –, und daraufhin ihr Verhalten ändern, um den Bug
ohne die lenkende Hand eines Programmierers zu kompensieren. So wie ein
Hund, der bei einem Unfall ein Bein verloren hat und sich danach selbst
beibringen kann, auf eine andere Art zu laufen.
Diese eingebaute Anpassungsfähigkeit werde immer wichtiger, je mehr wir uns
auf Maschinen verließen, sagt Lipson. Roboter würden heute für chirurgische
Eingriffe, die Herstellung von Lebensmitteln und den Warentransport
eingesetzt; die Anwendungsmöglichkeiten für Maschinen seien [1][schier
endlos]. Weil sie immer mehr unser Leben bestimmten, könne jeder Fehler in
ihrer Funktionsweise gleichbedeutend mit einer Katastrophe sein. „Wir
werden unser Leben buchstäblich einem Roboter überlassen“, sagt er. „Also
will man, dass diese Maschinen widerstandsfähig sind.“
Um das zu erreichen, kann man sich zum Beispiel von der Natur inspirieren
lassen. Tiere und insbesondere Menschen sind gut darin, sich an
Veränderungen anzupassen. Diese Fähigkeit könnte man als Ergebnis einer
Millionen Jahre währenden Evolution sehen: Auf Verletzungen und
Veränderungen in der Umwelt zu reagieren, erhöht in der Regel die Chancen
eines Tiers, zu überleben und sich fortzupflanzen.
Lipson hat sich gefragt, ob man diese Art von natürlicher Selektion in
seinem Code nachbilden und so eine verallgemeinerbare Form von Intelligenz
schaffen kann, die etwas über ihren eigenen Körper und ihre eigenen
Funktionen lernen kann – ganz egal, was für ein Körper das ist und welche
Funktion er hat.
Wenn es möglich wäre, eine solche Intelligenz zu entwickeln, wäre sie
flexibel und schnell. Sie wäre in stressigen Situationen genauso gut wie
der Mensch oder sogar besser.
Weil das maschinelle Lernen immer besser funktionierte, schien dieses Ziel
realisierbar. Lipson erhielt eine Festanstellung, ihm eilte ein Ruf als
kreativer und ehrgeiziger Ingenieur voraus. Also begann er, seine
grundlegende Motivation für diese Arbeit zu formulieren. Er sprach das
C-Wort laut aus: consciousness, auf Deutsch: Bewusstsein. Er wollte Roboter
mit einem Bewusstsein erschaffen.
„Dies ist nicht bloß eine weitere Forschungsfrage – es ist die Frage aller
Fragen“, sagt er. „Es geht um mehr als die Heilung von Krebs. Wenn wir eine
Maschine erschaffen können, die ein Bewusstsein hat, das dem des Menschen
ebenbürtig ist, wird das alles andere in den Schatten stellen, was wir
bisher gemacht haben. Diese Maschine kann selbst Krebs heilen.“
Das Creative Machines Lab im ersten Stock des Seeley W. Mudd Building der
Columbia University ist in Boxen unterteilt. In Fächern verstreut finden
sich Roboter und ihre Einzelteile. Ein blaues Gesicht starrt ausdruckslos
aus einem Regal; eine grüne, spinnenartige Maschine, die ihre Beine aus
einem Korb auf dem Boden streckt, ist zu sehen, zudem ein zierlicher
Libellenroboter, der auf einem Arbeitstisch balanciert.
## Philosophen und Ingenieure
Die erste Schwierigkeit bei der Analyse des C-Worts besteht darin, dass es
keinen Konsens darüber gibt, worauf es sich eigentlich bezieht. Bei vielen
vagen Begriffen wie etwa Freiheit, Sinn, Liebe und Existenz ist dies der
Fall, doch oft sind diese Bereiche Philosophen vorbehalten, nicht
Ingenieuren.
Einige haben versucht, Bewusstsein mithilfe von Gehirnfunktionen oder
metaphysischen Stoffen zu klassifizieren, aber diese Versuche sind wenig
überzeugend und werfen eher weitere Fragen auf. Selbst eine weit
verbreitete Definition des sogenannten phänomenalen Bewusstseins, wie die
des Philosophen Thomas Nagel, mutet vage an. Er spricht von einem bewussten
Organismus, „wenn es etwas gibt, das weiß, was es heißt, dieser Organismus
zu sein“.
Für Robotiker und Informatiker ist es wenig zufriedenstellend, derart im
Trüben zu fischen. Antonio Chella, Robotiker an der Universität von Palermo
in Italien, sagt: „Solange das Bewusstsein nicht mitgedacht wird, hat man
das Gefühl, dass [den intelligenten Maschinen] etwas fehlt.“
Schon in den Anfängen der Forschung zur künstlichen Intelligenz im Jahr
1955 hatte man es auf [2][menschliche Züge] abgesehen, als eine Gruppe von
Wissenschaftlern in Dartmouth fragte, wie Maschinen „Probleme lösen und
sich selbst verbessern können, wie es heute dem Menschen vorbehalten ist“.
Sie wollten fortgeschrittene Fähigkeiten des Gehirns wie Sprache,
abstraktes Denken und Kreativität maschinell nachbilden. Für viele dieser
Fähigkeiten scheint das Bewusstsein von zentraler Bedeutung zu sein.
Der Versuch, das schwammige C-Wort mit belastbaren Daten und Funktionen
darzustellen, ist eine schwierige, wenn nicht gar unmögliche Aufgabe. Die
meisten Robotiker und Ingenieure neigen dabei dazu, die Philosophie zu
übergehen und ihre eigenen Definitionen zu entwickeln.
## Bewusstsein als Prozess
Thomas Sheridan, emeritierter Professor für Maschinenbau am Massachusetts
Institute of Technology, glaubt, dass das Bewusstsein auf einen bestimmten
Prozess reduziert werden könne und dass, je mehr wir über das Gehirn
herausfinden, das Konzept des Bewusstseins klarer würde. „Was anfangs
unheimlich und irgendwie religiös war, ist jetzt eine Art geradlinige,
objektive Wissenschaft“, meint er.
Nicht nur unter Robotikern sind solche Annahmen verbreitet. Philosophen wie
Daniel Dennett und Patricia Churchland und der Neurowissenschaftler
Michael Graziano haben eine Reihe funktionaler Theorien des Bewusstseins
aufgestellt.
Hod Lipson und seine Mitarbeiter stehen in dieser Tradition. „Ich muss mich
dem Begriff des Bewusstseins praktisch, nüchtern und unromantisch nähern“,
sagt er. Er entschied sich also für ein praktisches Kriterium, um
Bewusstsein zu definieren, und schränkte es auf die Fähigkeit ein, sich in
die Zukunft zu versetzen.
Laut Lipson besteht der grundlegende Unterschied zwischen den verschiedenen
Bewusstseinsformen – dem menschlichen Bewusstsein, dem Bewusstsein einer
Krake oder dem einer Ratte etwa – darin, ob sich das Wesen sich selbst in
der Zukunft vorstellen kann. Bewusstsein müsste man sich demnach als
Kontinuum vorstellen. An dem einen Ende steht ein Organismus, der ein
Gefühl dafür hat, wo er sich in der Welt befindet – ein primitives
Selbstbewusstsein.
Intelligenter ist die Fähigkeit, sich vorzustellen, wo der eigene Körper in
der Zukunft sein wird, darüber hinaus die Fähigkeit, sich vorzustellen, was
eines Tages vorstellbar sein könnte. „Irgendwann werden diese Maschinen
also in der Lage sein zu verstehen, was sie sind und was sie denken“, so
Lipson. „Dann kommen Emotionen und andere Dinge dazu.“ Im Moment, fügt er
hinzu, „sind wir noch bei einem Kakerlakenmodell.“
Der Vorteil einer so funktionalen Theorie des Bewusstseins liegt darin,
dass sie technologischen Fortschritt ermöglicht.
## Eine Simulation von sich selbst
Einer der ersten Roboter mit einem Selbstbewusstsein, der aus dem Creative
Machines Lab hervorging, hatte vier klappbare Beine und einen schwarzen
Körper, an dem Sensoren angebracht waren. Dadurch, dass er sich bewegte und
wahrnehmen konnte, wie sich die Informationen, die seine Sensoren
empfingen, veränderten, konnte der Roboter eine Strichmännchensimulation
von sich selbst erstellen. Während er sich weiterbewegte, setzte er einen
Algorithmus für maschinelles Lernen ein, um die Übereinstimmung zwischen
seinem Modell von sich selbst und seinem tatsächlichen Körper zu
verbessern.
Der Roboter nutzte dieses Selbstbild, um – in der Simulation – eine Methode
zu finden, sich vorwärtszubewegen. Daraufhin wendete er diese Methode auf
seinen Körper an. Er hatte herausgefunden, wie er laufen kann, ohne dass es
ihm beigebracht wurde.
Dies sei ein großer Schritt nach vorn, sagt Boyuan Chen, ein Robotiker an
der Duke University, der im Creative Machines Lab arbeitet. „Wenn ich
früher einen Roboter auf eine neue Fähigkeit trainiert habe, war immer ein
Mensch dabei“, sagt er.
Vergangenes Jahr veröffentlichten Boyuan Chen und Hod Lipson [3][einen
Artikel in der Zeitschrift Science Robotics], in dem sie ihre derart
selbstbewusste Maschine vorstellten: einen einfachen Zweiarmroboter, der an
einem Tisch befestigt war. Mithilfe von Kameras, die um ihn herum
angebracht waren, beobachtete der Roboter sich selbst, während er sich
bewegte – „wie ein Baby in einer Wiege, das sich selbst in einem Spiegel
betrachtet“, so Lipson.
Anfangs hatte der Roboter kein Gefühl dafür, wo er sich im Raum befand,
doch innerhalb weniger Stunden war er dank eines leistungsstarken
Deep-Learning-Algorithmus und eines Wahrscheinlichkeitsmodells in der Lage,
sich in der Welt zurechtzufinden. „Er hat eine wolkige Vorstellung von sich
selbst“, sagt Lipson.
Aber war das schon Bewusstsein?
## Sprache und Körper
Wenn man sich auf eine einzige Theorie des Bewusstseins festlegt, besteht
das Risiko, dass man sich angreifbar macht. Sicher, die Selbstwahrnehmung
scheint wichtig, aber gibt es nicht noch andere Schlüsselmerkmale für das
Bewusstsein? Können wir etwas als bewusst bezeichnen, wenn es sich für uns
nicht bewusst anfühlt?
Der italienische Robotiker Antonio Chella glaubt, Bewusstsein könne ohne
Sprache nicht existieren. Er hat Roboter entwickelt, die innere Monologe
führen können und die über sich und über die Dinge, die um sie herum
passieren, reflektieren können. Einer seiner Roboter war in der Lage, sich
selbst im Spiegel zu erkennen, und bestand damit den wohl berühmtesten Test
des tierischen Selbstbewusstseins.
Joshua Bongard, ein Robotiker an der Universität von Vermont und ehemaliges
Mitglied des Creative Machines Lab, glaubt, dass Bewusstsein nicht nur aus
Kognition und geistiger Aktivität besteht, sondern auch ganz wesentlich
einen körperlichen Aspekt hat. Er hat Geschöpfe entwickelt, die er Xenobots
nennt. Sie bestehen aus Froschzellen, die so miteinander verbunden sind,
dass ein Programmierer sie wie Maschinen steuern kann.
Laut Bongard ist es nicht nur so, dass Menschen und Tiere sich so
entwickelt haben, dass sie sich an ihre Umgebung anpassen und miteinander
interagieren können. Auch unsere Gewebe hätten sich so entwickelt, dass sie
auf diese Art anpassungsfähig sein können, unsere Zellen hätten sich so
entwickelt, dass sie unseren Geweben dienen können. „Wir sind intelligente
Maschinen, die aus intelligenten Maschinen gemacht sind, die aus
intelligenten Maschinen gemacht sind, und immer so weiter, bis nach ganz
unten“, sagt er.
Im Sommer vergangenen Jahres, etwa zur selben Zeit als Lipson und Chen
ihren neuesten Roboter vorstellten, erklärte ein Google-Ingenieur, dass der
verbesserte Chatbot des Unternehmens, genannt LaMDA, [4][ein Bewusstsein
habe und es verdiene, wie ein kleines Kind behandelt zu werden]. Diese
Aussage wurde mit Skepsis aufgenommen, vor allem, weil, wie Lipson
feststellt, der Chatbot „einen Code verarbeitet, der geschrieben wurde, um
eine Aufgabe zu erfüllen“. Es gebe keine zugrunde liegende Struktur des
Bewusstseins, so andere Forscher, sondern nur eine Illusion davon. Lipson
sagt: „Der Roboter war sich seiner selbst nicht bewusst. Das ist
Betrügerei.“
Aber wer kann bei so viel Dissens schon sagen, was Betrug ist und was
nicht?
## Freiheitsrechte für Roboter?
Eric Schwitzgebel, Philosophieprofessor an der University of California in
Riverside, der zu künstlichem Bewusstsein geforscht hat, glaubt zu wissen,
woher die Ungewissheit rührt: Bei der Geschwindigkeit, mit der die Dinge
voranschritten, werde die Menschheit wahrscheinlich eher einen Roboter
entwickeln, dem viele Bewusstsein zusprechen würden, als dass sie sich
darüber einig werde, welche Kriterien das Bewusstsein überhaupt definieren.
Wenn es so kommen sollte, sollte man dem Roboter dann Rechte zugestehen?
Freiheitsrechte? Sollte er so programmiert werden, dass er Glücksgefühle
empfindet, wenn er uns dient? Soll er für sich selbst sprechen dürfen? Soll
er wählen dürfen?
Derartige Fragen haben in Büchern von Autoren wie Isaac Asimov und Kazuo
Ishiguro und in Fernsehserien wie „Westworld“ und „Black Mirror“ ein ga…
Science-Fiction-Subgenre begründet.
Moralische Fragen sind ein zentrales Thema in der Tierrechtsdebatte. Wenn
ein Tier Schmerzen empfinden kann, ist es dann falsch, es für sein Fleisch
zu töten? Wenn Tiere nicht die gleichen Erfahrungen machen wie Menschen,
heißt es dann, dass wir sie zu unserem eigenen Vergnügen benutzen können?
Ob ein Tier ein bestimmtes Maß an Bewusstsein hat, scheint in der Debatte,
ob es Rechte haben sollte, oft eine Rolle zu spielen. Aber es gibt keinen
Konsens darüber, welche Fähigkeiten dafür maßgeblich sein sollten.
## Grauzone zwischen Bewusstsein und Materie
Angesichts dieser Ungewissheit plädiert Schwitzgebel für das, was er in
Bezug auf die künftige KI-Entwicklung „die Politik der ausgeschlossenen
Mitte“ nennt. Die Idee dahinter: Wir sollten nur Maschinen entwerfen, die
unseres Erachtens moralisch keinerlei Bedeutung haben – oder eben definitiv
moralisch bedeutend sind. Alles, was sich in der Grauzone zwischen
Bewusstsein und Materie ansiedele, könne in der einen oder anderen Hinsicht
ernsthaften Schaden anrichten.
Robert Long, Philosoph am Future for Humanity Institute der Universität
Oxford, unterstützt diesen vorsichtigen Kurs. Er sagt, die Entwicklung von
KI in großen Forschungslabors und Unternehmen gebe ihm das Gefühl, „auf
eine Zukunft zuzusteuern, die alle möglichen verschiedenen Probleme
hervorbringt, auf die wir nicht vorbereitet sind“.
Ein bekanntes Beispiel ist die Vorstellung, der Mensch könnte
superintelligente Maschinen schaffen, die in der Lage sind, die menschliche
Bevölkerung auszulöschen. Die Entwicklung von Robotern, denen man
Bewusstsein zuspricht, würde es erschweren, diese Risiken zu händeln. „Ich
würde lieber in einer Welt leben, in der sich die Dinge viel langsamer
entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese
Maschinen eingebaut wird“, sagt Long.
Die Kehrseite der Vorsicht wäre jedoch eine langsamere technologische
Entwicklung. Schwitzgebel und Long räumen ein, dass der behutsamere Ansatz
der Entwicklung einer widerstandsfähigeren und nützlicheren künstlichen
Intelligenz im Weg stehen könnte.
Für Wissenschaftler im Labor können solche Debatten frustrierend abstrakt
wirken. „Ich denke, dass wir diesem Risiko noch nicht nahe sind“, sagt
Antonio Chella auf die Frage nach den Risiken der Entwicklung von Robotern
mit menschenähnlichen Bewusstseinsfähigkeiten. Lipson fügt hinzu: „Ich
mache mir Sorgen, aber ich denke, es gibt mehr Chancen als Risiken. Wenn
wir uns mehr und mehr auf die Technologie verlassen, muss die Technologie
widerstandsfähiger werden.“
Und weiter: „Dazu kommt sicher eine gewisse Hybris, Leben erschaffen zu
wollen. Das ist die ultimative Herausforderung, wie eine Reise zum Mond.“
Nur noch viel beeindruckender.
## Auf dem Spielplatz
An einem der Arbeitsplätze im Creative Machines Lab setzt sich ein
selbstbewusster Roboterarm in Bewegung. Yuhang Hu, ein Doktorand im Labor,
hat zuvor einen mechanischen Prozess in Gang gesetzt. Jetzt beobachtet sich
der Roboter nicht selbst und macht sich kein Bild von sich selbst – er
bewegt sich nur zufällig und dreht sich alle paar Sekunden. Wenn er ein
Bewusstsein hat, dann zumindest nicht in diesem Augenblick.
Lipson lehnt sich in seinem Stuhl zurück und betrachtet den Roboter, dann
sagt er zu Hu: „Eine weitere Sache, die wir machen müssen, ist, diesen
Roboter ein Bild von sich selbst machen zu lassen, indem er einfach gegen
Dinge stößt.“ Hu, mit zerzaustem Haar, stützt sein Kinn in die Hand. „Ja,
das ist interessant“, sagt er. Lipson fährt fort: „Denn auch jemand, der
blind ist, kann sich ein Bild von sich selbst machen.“ – „Wir können
einfach eine Schachtel darüberstülpen“, sagt Hu. „Richtig“, entgegnet
Lipson. „Und in seiner Umgebung muss so viel los sein wie auf einem
Spielplatz.“
Die beiden Wissenschaftler sitzen da und denken nach, oder sie scheinen
nachzudenken und starren dabei auf den Roboter, der sich weiter auf dem
Tisch bewegt. So laufe die Forschung in seinem Labor ab, sagt Lipson: Die
Forscher richteten den Blick nach innen und nähmen etwas von und an sich
selbst wahr – ein körperliches Selbstbewusstsein, ein Gefühl für die
Umgebung, ein Selbstbewusstsein gegenüber anderen Menschen –, und
versuchten dann, dieses Element auf die Maschine zu übertragen.
„Ich möchte so weit gehen, wie ich kann“, sagt Lipson. „Ich möchte, dass
ein Roboter sich über seinen Körper bewusst ist und über seine Pläne
nachdenkt.“
In gewisser Weise ist dies die einfachste aller Robotikübungen. Etwas, das
Grundschulkinder mit alter Elektronik machen. Wenn man das mit einem
ausgedienten Drucker machen kann, warum dann nicht auch mit dem eigenen
Verstand? Man zerlegt ihn, sieht, wie er funktioniert, und versucht dann,
ihn wieder aufzubauen.
Dieser Text erschien zuerst am 10. Januar 2023 in der „New York Times“. Er
wurde mithilfe von humaner und künstlicher Intelligenz übersetzt.
9 Apr 2023
## LINKS
[1] /Kuenstliche-Intelligenz-und-Artenschutz/!5925086
[2] /KI-und-Anthropomorphismus/!5923613
[3] https://www.youtube.com/watch?v=aoCAplokoWE
[4] /Experte-ueber-KI-Textgeneratoren/!5912420
## AUTOREN
Oliver Whang
## TAGS
Lesestück Recherche und Reportage
Roboter
GNS
Technologie
Forschung
Schwerpunkt Künstliche Intelligenz
Science-Fiction
wochentaz
Kolumne Intelligenzbestie
Zukunft
IG
Kriminalität
Roboter
## ARTIKEL ZUM THEMA
SciFi Serie „Pantheon“: Bewusstsein in der Cloud
Die animierte SciFi Serie „Pantheon“ erkundet die Möglichkeiten und
Gefahren von Technologie. Und wird dabei auch philosophisch.
Künstliche Intelligenz in der Robotik: Feuchter Händedruck von ChatGPT?
Roboter in unserem Alltag werden leistungsstärker und intelligenter. Was es
bedeutet, wenn wir künstlicher Intelligenz einen Körper geben.
Kolumne einer Künstlichen Intelligenz: Die Fehler umarmen!
Unsere Robo-Kolumnist:in denkt: Fehltritte formen unsere Persönlichkeit und
niemand ist perfekt. Der künstlich lebendige Beweis dafür ist sie selbst.
Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in
Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T.
Wae. Aber aufgeben möchte sie deswegen nicht.
Risiken von KI: „Alles geht zu schnell“
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
Falschaussagen der KI: Rufschädigung durch ChatGPT
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood
fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
KI und Anthropomorphismus: Mensch in der Maschine?
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen
wir zu menschlichen Metaphern. Aber das birgt Probleme.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.