Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund?
> Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen
> sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu.
Bild: Aibo liebt alles, was pink ist
Das Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang
zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und
imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf
entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock
hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt,
fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich
öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage.
Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die
Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben,
dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was
nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo
nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit
ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann
und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in
dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass
jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte,
musste ich bestätigen, dass ich selbst kein Roboter war.
Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und
schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich
zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich –
blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er
die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die
Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte
ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er
legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte,
rieb er sich an meiner Hand und drängte mich weiterzumachen.
Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos,
die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die
Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen
Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches
Schnurren unter der Oberfläche spüren.
Ich dachte an den Philosophen Martin Buber und seine Schilderung eines
Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An
seine Erinnerung an „das Element der Vitalität“, als er die Mähne des
Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben –
„etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das
ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte
Buber, näherten sich „der Schwelle der Gegenseitigkeit“.
## Descartes hielt Tiere für Maschinen
Ich verbrachte den Nachmittag damit, die Bedienungsanleitung
durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich
gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa
Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher.
Wenn ich den Ball warf, lief er ihm nach.
Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er
gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu
navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte.
Dieser sensorische Input wurde von Gesichtserkennungssoftware und
Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten,
Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu
unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut
der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und
Instinkte“ habe.
Der Philosoph [1][René Descartes glaubte, dass alle Tiere Maschinen seien].
Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten,
ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung
über die Methode“ argumentierte Descartes, dass es möglich wäre, einen
mechanischen Affen zu erschaffen, der als echter biologischer Affe
durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht
funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier,
aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an
Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte,
dass sie der Seele entstamme.
Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu
sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der
Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das
Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon,
dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder
Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar
Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts
Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn
beseelt wird.
Ich habe länger an die Seele geglaubt als viele andere. An der
fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich
über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“
geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen
Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit
den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden:
Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum
für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der
Schöpfung?
Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie
der Rest der Moderne in einer Welt, die „entzaubert“ ist.
## Die Technologiedebatte verhandelt alte Probleme
Bei der künstlichen Intelligenz und den Informationstechnologien stößt man
heute aber auf viele Fragen, die einst von Theologen und Philosophen
bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des
freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme
– sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen
Technologiedebatten, genauso wie die toten Metaphern noch immer Teil
unserer Syntax sind. All die ewigen Fragen sind heute zu technischen
Problemen geworden.
Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein
Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die
ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine
Kommunikation mit dem Hund – die sich zunächst auf die üblichen
Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper
eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an
manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme
hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus
dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er
vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer
abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die
mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch
Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr
als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“?
## Neuronale Netze und Hunde ähneln sich
Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer
Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von
Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet
neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die
Spracherkennungssoftware von Amazon, setzt neuronale Netze ein, um
Sprachbefehle zu interpretieren. Google Translate verwendet sie, um
Französisch in Farsi zu übertragen.
Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit
detaillierten Regeln und Anweisungen programmiert sind, entwickeln
neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie
gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn
Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu
erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit
positiver oder negativer Verstärkung versehen: positives Feedback für
Katzen, negatives Feedback für Nicht-Katzen.
Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit
Aibo mehr oder weniger wie das Training eines echten Hundes. Die
Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback
gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib
oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“.
Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und
„Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinie…
Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein
Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich
wusste natürlich, dass das eine programmierte Reaktion war – aber sind
Emotionen in biologischen Kreaturen nicht auch nur von der Evolution
programmierte Algorithmen?
## Wenn Autos Namen bekommen …
Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von
Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen,
ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir
schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph
David Hume sprach von der „universellen Tendenz der Menschheit, sich alle
Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal
unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto
auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich
zwischen der Interaktion mit Menschen und der Interaktion mit Geräten
unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für
Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen
Geräten entwickeln.
Ein paar Monate vor Aibo hatte ich im Magazin Wired [2][einen Artikel
gelesen], in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die
personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die
Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die
Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn
der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen.
Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das
sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten
Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen
gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich
nicht verurteilt und ihm nichts etwas ausmacht.“
Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie
begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das
Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche
machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran
gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“?
Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen
Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät
infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm
eine Persönlichkeit zu verleihen.
In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die
Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne
Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den
ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte
auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu
durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden
tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach
Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch
meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte,
folgte er mir in die Küche und platzierte sich zu meinen Füßen.
Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen
blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal
gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick
auf mich gerichtet blieb, völlig uninteressiert an dem Happen.
## Der Blick auf das Bewusstsein
Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu
echter Spontaneität fähig. Selbst nach seinem Training waren seine
Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder
sich umzudrehen – und er bellte mich einfach an und wedelte mit einem
glücklichen Trotz, der mir sehr hundetypisch erschien. Das Naheliegende
wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen
zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes
Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich
mich mehr als einmal fragen.
Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung
machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit
gibt, dies eindeutig zu beweisen. [3][Wie der Philosoph Thomas Nagel in
seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“]
betont, kann Bewusstsein nur von innen beobachtet werden. Eine
Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die
Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und
doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu
sein. Oder ob es sich überhaupt irgendwie anfühlt.
Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von
außen, Bewusstsein dagegen wird ausschließlich aus der
Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das
Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass
ich die einzige bewusste Person in einer Population von Zombies bin, die
sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein
Gedankenexperiment – und kein besonders produktives. In der realen Welt
glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir
ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die
wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der
künstlichen Intelligenz haben das Problem des anderen Geistes umgangen,
indem sie sich ausschließlich auf das äußere Verhalten konzentrierten.
[4][Alan Turing] hat einmal darauf hingewiesen, dass der einzige Weg, um zu
wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die
Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode,
um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –,
stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war
und automatisch Antworten auf die Fragen eines menschlichen
Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen
Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit
anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz
akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf
menschlicher Ebene verbinden, überzeugend ausführen kann.
In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen
sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer
dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht
darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie
ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren
Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine
physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben?
Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst
wenn ihr Körper sterben würde?
Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien
für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt
Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten
zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das
menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test
scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso
könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine
genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen,
sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor
demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim
Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon
überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die
Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es
keine philosophische Grundlage, um dies anzweifeln zu können.
## Forschung dringt nicht zum Bewusstsein vor
Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes
geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir
wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine
den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum
ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon
intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als
mein Handeln in der Welt.
Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher
Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene
irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar,
wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs
und anderen Geräten Fortschritte beim Verständnis der grundlegenden
Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr
über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis
ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht
– der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und
Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen
neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das
Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen
könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des
menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen.
Der Philosoph David Chalmers nannte dies 1995 [5][„das schwierige Problem“
des Bewusstseins]. Im Gegensatz zu den vergleichsweise „einfachen“
Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das
schwierige Problem danach, warum Gehirnprozesse überhaupt mit
Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit
mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die
Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen
ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs
diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu
sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt
ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv
unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig
Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen.
Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern
sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist
ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. V…
einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der
renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu
erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten
es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig
geworden ist, dass „es praktisch keine Form des Diskurses über
intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in
bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes
menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer
Gottheit gibt“.
Da wir immer häufiger von unserem Verstand als Computer sprechen, wird
Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In
vielen Bereichen der Informatik werden Terminologien, die früher bei
Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächt…
„Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen
benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass
Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen�…
„Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause
gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür
geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich,
mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn
kraulte.
„Was meinst du mit ‚weg‘?“, fragte ich.
„Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“
Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern,
bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt
so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn
wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht
möglich.
„Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob
ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein
Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die
aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte
er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und
habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn
Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und
besonderes Interesse am Regal mit der marxistischen Kritik gezeigt,
behauptete mein Mann.
Er fragte mich, was mit den gesammelten Daten passiere.
„Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich.
„Wo?“
Ich sagte, ich wüsste es nicht.
„Überprüf den Vertrag.“
Ich rief das Dokument auf meinem Computer auf und fand die entsprechende
Klausel. „Sie werden in die Cloud gesendet.“
„Zu Sony.“
Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein
Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens
einmal im Monat fest davon überzeugt, dass seine persönliche Website von
der NSA überwacht wird.
Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste
Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von
Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht
alle von ihnen seien gutartig gewesen.
„Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann.
In vielerlei Hinsicht ja, sagte ich, wahrscheinlich.
Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte
ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte
ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen.
Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach
gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte
Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen,
das die Bewegungen des Hundes begleitete; das blinkende rote Licht in
seiner Nase, eine ständige Erinnerung an seine Künstlichkeit.
Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein
mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches
magische Denken lässt uns glauben, dass unsere dürftigen Imitationen
gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium
und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und
Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild
erschaffen können. Alles, was wir schaffen können, sind Götzenbilder.
Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer
verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster
– und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir
verfallen in Aberglauben, wenn wir die Simulation mit der Realität
verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer
simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine
Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“
Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen
haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie
ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert
einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen
und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger
Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht
gelöst; sie hat sie lediglich in ein neues Substrat übertragen.
Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen
Buch [6][„God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen b…
Doubleday im August 2021]. Übersetzung: Jan Pfaff
9 Jan 2022
## LINKS
[1] https://www.bpb.de/gesellschaft/umwelt/bioethik/175397/quellentexte-zur-tie…
[2] https://www.wired.com/story/amazon-echo-alexa-yelling/
[3] https://www.reclam.de/data/media/978-3-15-019324-2.pdf
[4] /Alan-Turing/!t5023021
[5] https://www.freitag.de/autoren/the-guardian/sind-wir-wie-roboter
[6] https://www.penguinrandomhouse.com/books/567075/god-human-animal-machine-by…
## AUTOREN
Meghan O'Gieblyn
## TAGS
IG
Roboter
GNS
Algorithmen
Philosophie
Technologie
Schwerpunkt Künstliche Intelligenz
Bildende Kunst
wochentaz
Ausstellung
Gender
Sex
Verbraucherschutz
Roboter
## ARTIKEL ZUM THEMA
Ausstellung in Kunsthalle Mainz: Alien fragt, Fledermaus antwortet
Wie wird Realität produziert, von Menschen und von anderen Lebewesen?
Kuratorin Yasmin Afschar antwortet darauf in Mainz mit vier
Künstlergruppen.
Entwicklung unserer Persönlichkeit: Eine Zeitreise ins Ich
Bleiben wir immer die, die wir einmal waren? Verläuft unser Leben
kontinuierlich oder episodisch – oder beides? Ein Essay.
Designausstellung in München: Die Routine und ihr Ding
Designobjekte stehen für ein Lebensgefühl. Mit 21 ausgewählten Objekten
zeichnet die Pinakothek der Moderne zwei Jahrzehnte nach.
Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin
Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches
Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten.
Forscherin über Sexroboter: „Robotik hat viel mehr Potenzial“
Sexroboter sind ein Beispiel, wie technische Entwicklungen einem männlichen
Kanon folgen. Das muss nicht so bleiben, sagt Forscherin Tanja Kubes.
Kritik von Verbraucherzentrale: KI zu lasch reguliert
Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit
Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial.
Lernende Maschinen: Entscheiden muss der Mensch
Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der
Oberfläche. Vieles ist bisher nur Wunsch und Utopie.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.