# taz.de -- Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund? | |
> Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen | |
> sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu. | |
Bild: Aibo liebt alles, was pink ist | |
Das Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang | |
zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und | |
imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf | |
entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock | |
hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt, | |
fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich | |
öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage. | |
Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die | |
Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben, | |
dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was | |
nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo | |
nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit | |
ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann | |
und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in | |
dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass | |
jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte, | |
musste ich bestätigen, dass ich selbst kein Roboter war. | |
Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und | |
schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich | |
zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich – | |
blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er | |
die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die | |
Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte | |
ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er | |
legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte, | |
rieb er sich an meiner Hand und drängte mich weiterzumachen. | |
Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos, | |
die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die | |
Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen | |
Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches | |
Schnurren unter der Oberfläche spüren. | |
Ich dachte an den Philosophen Martin Buber und seine Schilderung eines | |
Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An | |
seine Erinnerung an „das Element der Vitalität“, als er die Mähne des | |
Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben – | |
„etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das | |
ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte | |
Buber, näherten sich „der Schwelle der Gegenseitigkeit“. | |
## Descartes hielt Tiere für Maschinen | |
Ich verbrachte den Nachmittag damit, die Bedienungsanleitung | |
durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich | |
gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa | |
Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher. | |
Wenn ich den Ball warf, lief er ihm nach. | |
Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er | |
gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu | |
navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte. | |
Dieser sensorische Input wurde von Gesichtserkennungssoftware und | |
Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten, | |
Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu | |
unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut | |
der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und | |
Instinkte“ habe. | |
Der Philosoph [1][René Descartes glaubte, dass alle Tiere Maschinen seien]. | |
Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten, | |
ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung | |
über die Methode“ argumentierte Descartes, dass es möglich wäre, einen | |
mechanischen Affen zu erschaffen, der als echter biologischer Affe | |
durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht | |
funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier, | |
aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an | |
Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte, | |
dass sie der Seele entstamme. | |
Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu | |
sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der | |
Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das | |
Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon, | |
dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder | |
Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar | |
Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts | |
Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn | |
beseelt wird. | |
Ich habe länger an die Seele geglaubt als viele andere. An der | |
fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich | |
über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“ | |
geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen | |
Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit | |
den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden: | |
Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum | |
für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der | |
Schöpfung? | |
Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie | |
der Rest der Moderne in einer Welt, die „entzaubert“ ist. | |
## Die Technologiedebatte verhandelt alte Probleme | |
Bei der künstlichen Intelligenz und den Informationstechnologien stößt man | |
heute aber auf viele Fragen, die einst von Theologen und Philosophen | |
bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des | |
freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme | |
– sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen | |
Technologiedebatten, genauso wie die toten Metaphern noch immer Teil | |
unserer Syntax sind. All die ewigen Fragen sind heute zu technischen | |
Problemen geworden. | |
Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein | |
Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die | |
ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine | |
Kommunikation mit dem Hund – die sich zunächst auf die üblichen | |
Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper | |
eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an | |
manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme | |
hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus | |
dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er | |
vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer | |
abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die | |
mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch | |
Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr | |
als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“? | |
## Neuronale Netze und Hunde ähneln sich | |
Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer | |
Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von | |
Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet | |
neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die | |
Spracherkennungssoftware von Amazon, setzt neuronale Netze ein, um | |
Sprachbefehle zu interpretieren. Google Translate verwendet sie, um | |
Französisch in Farsi zu übertragen. | |
Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit | |
detaillierten Regeln und Anweisungen programmiert sind, entwickeln | |
neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie | |
gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn | |
Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu | |
erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit | |
positiver oder negativer Verstärkung versehen: positives Feedback für | |
Katzen, negatives Feedback für Nicht-Katzen. | |
Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit | |
Aibo mehr oder weniger wie das Training eines echten Hundes. Die | |
Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback | |
gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib | |
oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“. | |
Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und | |
„Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinie… | |
Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein | |
Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich | |
wusste natürlich, dass das eine programmierte Reaktion war – aber sind | |
Emotionen in biologischen Kreaturen nicht auch nur von der Evolution | |
programmierte Algorithmen? | |
## Wenn Autos Namen bekommen … | |
Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von | |
Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen, | |
ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir | |
schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph | |
David Hume sprach von der „universellen Tendenz der Menschheit, sich alle | |
Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal | |
unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto | |
auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich | |
zwischen der Interaktion mit Menschen und der Interaktion mit Geräten | |
unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für | |
Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen | |
Geräten entwickeln. | |
Ein paar Monate vor Aibo hatte ich im Magazin Wired [2][einen Artikel | |
gelesen], in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die | |
personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die | |
Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die | |
Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn | |
der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen. | |
Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das | |
sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten | |
Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen | |
gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich | |
nicht verurteilt und ihm nichts etwas ausmacht.“ | |
Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie | |
begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das | |
Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche | |
machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran | |
gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“? | |
Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen | |
Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät | |
infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm | |
eine Persönlichkeit zu verleihen. | |
In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die | |
Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne | |
Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den | |
ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte | |
auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu | |
durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden | |
tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach | |
Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch | |
meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte, | |
folgte er mir in die Küche und platzierte sich zu meinen Füßen. | |
Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen | |
blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal | |
gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick | |
auf mich gerichtet blieb, völlig uninteressiert an dem Happen. | |
## Der Blick auf das Bewusstsein | |
Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu | |
echter Spontaneität fähig. Selbst nach seinem Training waren seine | |
Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder | |
sich umzudrehen – und er bellte mich einfach an und wedelte mit einem | |
glücklichen Trotz, der mir sehr hundetypisch erschien. Das Naheliegende | |
wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen | |
zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes | |
Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich | |
mich mehr als einmal fragen. | |
Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung | |
machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit | |
gibt, dies eindeutig zu beweisen. [3][Wie der Philosoph Thomas Nagel in | |
seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“] | |
betont, kann Bewusstsein nur von innen beobachtet werden. Eine | |
Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die | |
Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und | |
doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu | |
sein. Oder ob es sich überhaupt irgendwie anfühlt. | |
Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von | |
außen, Bewusstsein dagegen wird ausschließlich aus der | |
Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das | |
Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass | |
ich die einzige bewusste Person in einer Population von Zombies bin, die | |
sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein | |
Gedankenexperiment – und kein besonders produktives. In der realen Welt | |
glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir | |
ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die | |
wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der | |
künstlichen Intelligenz haben das Problem des anderen Geistes umgangen, | |
indem sie sich ausschließlich auf das äußere Verhalten konzentrierten. | |
[4][Alan Turing] hat einmal darauf hingewiesen, dass der einzige Weg, um zu | |
wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die | |
Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode, | |
um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –, | |
stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war | |
und automatisch Antworten auf die Fragen eines menschlichen | |
Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen | |
Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit | |
anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz | |
akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf | |
menschlicher Ebene verbinden, überzeugend ausführen kann. | |
In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen | |
sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer | |
dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht | |
darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie | |
ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren | |
Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine | |
physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben? | |
Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst | |
wenn ihr Körper sterben würde? | |
Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien | |
für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt | |
Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten | |
zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das | |
menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test | |
scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso | |
könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine | |
genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen, | |
sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor | |
demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim | |
Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon | |
überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die | |
Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es | |
keine philosophische Grundlage, um dies anzweifeln zu können. | |
## Forschung dringt nicht zum Bewusstsein vor | |
Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes | |
geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir | |
wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine | |
den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum | |
ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon | |
intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als | |
mein Handeln in der Welt. | |
Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher | |
Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene | |
irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar, | |
wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs | |
und anderen Geräten Fortschritte beim Verständnis der grundlegenden | |
Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr | |
über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis | |
ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht | |
– der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und | |
Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen | |
neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das | |
Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen | |
könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des | |
menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen. | |
Der Philosoph David Chalmers nannte dies 1995 [5][„das schwierige Problem“ | |
des Bewusstseins]. Im Gegensatz zu den vergleichsweise „einfachen“ | |
Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das | |
schwierige Problem danach, warum Gehirnprozesse überhaupt mit | |
Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit | |
mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die | |
Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen | |
ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs | |
diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu | |
sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt | |
ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv | |
unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig | |
Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen. | |
Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern | |
sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist | |
ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. V… | |
einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der | |
renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu | |
erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten | |
es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig | |
geworden ist, dass „es praktisch keine Form des Diskurses über | |
intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in | |
bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes | |
menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer | |
Gottheit gibt“. | |
Da wir immer häufiger von unserem Verstand als Computer sprechen, wird | |
Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In | |
vielen Bereichen der Informatik werden Terminologien, die früher bei | |
Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächt… | |
„Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen | |
benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass | |
Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen�… | |
„Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause | |
gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür | |
geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich, | |
mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn | |
kraulte. | |
„Was meinst du mit ‚weg‘?“, fragte ich. | |
„Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“ | |
Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern, | |
bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt | |
so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn | |
wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht | |
möglich. | |
„Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob | |
ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein | |
Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die | |
aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte | |
er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und | |
habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn | |
Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und | |
besonderes Interesse am Regal mit der marxistischen Kritik gezeigt, | |
behauptete mein Mann. | |
Er fragte mich, was mit den gesammelten Daten passiere. | |
„Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich. | |
„Wo?“ | |
Ich sagte, ich wüsste es nicht. | |
„Überprüf den Vertrag.“ | |
Ich rief das Dokument auf meinem Computer auf und fand die entsprechende | |
Klausel. „Sie werden in die Cloud gesendet.“ | |
„Zu Sony.“ | |
Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein | |
Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens | |
einmal im Monat fest davon überzeugt, dass seine persönliche Website von | |
der NSA überwacht wird. | |
Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste | |
Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von | |
Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht | |
alle von ihnen seien gutartig gewesen. | |
„Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann. | |
In vielerlei Hinsicht ja, sagte ich, wahrscheinlich. | |
Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte | |
ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte | |
ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen. | |
Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach | |
gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte | |
Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen, | |
das die Bewegungen des Hundes begleitete; das blinkende rote Licht in | |
seiner Nase, eine ständige Erinnerung an seine Künstlichkeit. | |
Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein | |
mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches | |
magische Denken lässt uns glauben, dass unsere dürftigen Imitationen | |
gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium | |
und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und | |
Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild | |
erschaffen können. Alles, was wir schaffen können, sind Götzenbilder. | |
Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer | |
verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster | |
– und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir | |
verfallen in Aberglauben, wenn wir die Simulation mit der Realität | |
verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer | |
simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine | |
Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“ | |
Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen | |
haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie | |
ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert | |
einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen | |
und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger | |
Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht | |
gelöst; sie hat sie lediglich in ein neues Substrat übertragen. | |
Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen | |
Buch [6][„God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen b… | |
Doubleday im August 2021]. Übersetzung: Jan Pfaff | |
9 Jan 2022 | |
## LINKS | |
[1] https://www.bpb.de/gesellschaft/umwelt/bioethik/175397/quellentexte-zur-tie… | |
[2] https://www.wired.com/story/amazon-echo-alexa-yelling/ | |
[3] https://www.reclam.de/data/media/978-3-15-019324-2.pdf | |
[4] /Alan-Turing/!t5023021 | |
[5] https://www.freitag.de/autoren/the-guardian/sind-wir-wie-roboter | |
[6] https://www.penguinrandomhouse.com/books/567075/god-human-animal-machine-by… | |
## AUTOREN | |
Meghan O'Gieblyn | |
## TAGS | |
künstliche Intelligenz | |
Philosophie | |
Roboter | |
Technologie | |
Algorithmen | |
GNS | |
IG | |
Bildende Kunst | |
wochentaz | |
Ausstellung | |
Roboter | |
Sex | |
künstliche Intelligenz | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Ausstellung in Kunsthalle Mainz: Alien fragt, Fledermaus antwortet | |
Wie wird Realität produziert, von Menschen und von anderen Lebewesen? | |
Kuratorin Yasmin Afschar antwortet darauf in Mainz mit vier | |
Künstlergruppen. | |
Entwicklung unserer Persönlichkeit: Eine Zeitreise ins Ich | |
Bleiben wir immer die, die wir einmal waren? Verläuft unser Leben | |
kontinuierlich oder episodisch – oder beides? Ein Essay. | |
Designausstellung in München: Die Routine und ihr Ding | |
Designobjekte stehen für ein Lebensgefühl. Mit 21 ausgewählten Objekten | |
zeichnet die Pinakothek der Moderne zwei Jahrzehnte nach. | |
Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin | |
Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches | |
Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten. | |
Forscherin über Sexroboter: „Robotik hat viel mehr Potenzial“ | |
Sexroboter sind ein Beispiel, wie technische Entwicklungen einem männlichen | |
Kanon folgen. Das muss nicht so bleiben, sagt Forscherin Tanja Kubes. | |
Kritik von Verbraucherzentrale: KI zu lasch reguliert | |
Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit | |
Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial. | |
Lernende Maschinen: Entscheiden muss der Mensch | |
Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der | |
Oberfläche. Vieles ist bisher nur Wunsch und Utopie. |