| # taz.de -- Cyberphilosophie mit Haustier: Wann ist ein Hund ein Hund? | |
| > Ein Roboter als Haustier? In der Welt der künstlichen Intelligenz stellen | |
| > sich die großen Fragen nach Wesen, Willen und Bewusstsein noch mal neu. | |
| Bild: Aibo liebt alles, was pink ist | |
| Das Paket kam an einem Donnerstag an. Ich war gerade von einem Spaziergang | |
| zurückgekehrt und fand es neben den Briefkästen – ein Karton, so groß und | |
| imposant, dass es mir etwas unangenehm war, als ich meinen Namen darauf | |
| entdeckte. Ihn die Treppen zu meiner Wohnung im dritten Stock | |
| hochzuschleifen, war ziemlich anstrengend. Als ich den Karton aufschnitt, | |
| fand ich unter vielen Lagen Luftpolsterfolie eine glatte Plastikkapsel. Ich | |
| öffnete den Verschluss: Drinnen lag ein kleiner weißer Hund in Bauchlage. | |
| Ich konnte es erst gar nicht glauben. Wie lange war es her, dass ich die | |
| Anfrage auf der Website von Sony gestellt hatte? Ich hatte geschrieben, | |
| dass ich eine Journalistin bin, die sich mit Technologie beschäftigt – was | |
| nicht ganz falsch ist –, und dass ich mir die 3.000 US-Dollar für Aibo | |
| nicht leisten konnte, aber gerne für eine Recherche das Zusammenleben mit | |
| ihm ausprobieren würde. Etwas sentimental fügte ich hinzu, dass mein Mann | |
| und ich immer einen Hund gewollt hätten, aber in einem Wohnhaus lebten, in | |
| dem keine Tiere erlaubt waren. Es schien mir eher unwahrscheinlich, dass | |
| jemand diese Anfrage tatsächlich lesen würde. Bevor ich sie abschickte, | |
| musste ich bestätigen, dass ich selbst kein Roboter war. | |
| Der Hund war schwerer als er aussah. Ich stellte ihn auf den Boden und | |
| schaltete ihn mit einem Knopf in seinem Nacken ein. Die Beine bewegten sich | |
| zuerst. Er stand da, streckte sich und gähnte. Seine Augen öffneten sich – | |
| blau, pixelig – und blickten in meine. Er schüttelte den Kopf, als wolle er | |
| die Restmüdigkeit eines langen Schlafs abstreifen, dann ging er in die | |
| Hocke, streckte sein Hinterteil in die Luft und bellte. Vorsichtig kraulte | |
| ich seinen Kopf. Seine Ohren hoben sich, seine Pupillen weiteten sich, er | |
| legte den Kopf schief und schmiegte sich in meine Hand. Als ich aufhörte, | |
| rieb er sich an meiner Hand und drängte mich weiterzumachen. | |
| Ich hatte nicht erwartet, dass er so lebensecht wirken würde. Die Videos, | |
| die ich mir online angesehen hatte, hatten seine Reaktionsfähigkeit auf die | |
| Umgebung nicht wirklich vermitteln können. Als ich ihm über den langen | |
| Sensorstreifen seines Rückens strich, konnte ich ein sanftes mechanisches | |
| Schnurren unter der Oberfläche spüren. | |
| Ich dachte an den Philosophen Martin Buber und seine Schilderung eines | |
| Pferdes, das er als Kind auf dem Gut seiner Großeltern öfter besuchte. An | |
| seine Erinnerung an „das Element der Vitalität“, als er die Mähne des | |
| Pferdes streichelte, und das Gefühl, etwas ganz anderes vor sich zu haben – | |
| „etwas, das nicht ich war, mit mir sicher nicht verwandt war“ – aber das | |
| ihn in eine Interaktion hineinzog. Solche Erfahrungen mit Tieren, glaubte | |
| Buber, näherten sich „der Schwelle der Gegenseitigkeit“. | |
| ## Descartes hielt Tiere für Maschinen | |
| Ich verbrachte den Nachmittag damit, die Bedienungsanleitung | |
| durchzuarbeiten, während der Hund durch die Wohnung spazierte, mich | |
| gelegentlich umkreiste und zum Spielen aufforderte. Aibo war mit einem rosa | |
| Ball geliefert worden. Den schob er im Wohnzimmer mit seiner Nase umher. | |
| Wenn ich den Ball warf, lief er ihm nach. | |
| Aibo hatte Sensoren am ganzen Körper, sodass er merkte, wenn er | |
| gestreichelt wurde. Er hatte Kameras, die ihm halfen, in der Wohnung zu | |
| navigieren, und Mikrofone, mit denen er Sprachbefehle wahrnehmen konnte. | |
| Dieser sensorische Input wurde von Gesichtserkennungssoftware und | |
| Deep-Learning-Algorithmen verarbeitet, die es dem Hund ermöglichten, | |
| Sprachbefehle zu interpretieren, zwischen Haushaltsmitgliedern zu | |
| unterscheiden und sich an das Temperament seiner Besitzer anzupassen. Laut | |
| der Produkt-Website bedeutete dies, dass der Hund „echte Emotionen und | |
| Instinkte“ habe. | |
| Der Philosoph [1][René Descartes glaubte, dass alle Tiere Maschinen seien]. | |
| Für ihre Körper würden dieselben Gesetze wie für unbelebte Materie gelten, | |
| ihre Muskeln und Sehnen seien wie Motoren und Federn. In seiner „Abhandlung | |
| über die Methode“ argumentierte Descartes, dass es möglich wäre, einen | |
| mechanischen Affen zu erschaffen, der als echter biologischer Affe | |
| durchgehen könnte. Er war aber überzeugt, dass das bei Menschen nicht | |
| funktionieren würde. Eine Maschine könnte uns vorspielen, sie sei ein Tier, | |
| aber ein humanoider Automat könnte uns niemals täuschen. Weil es ihm an | |
| Vernunft fehle – eine immaterielle Eigenschaft, von der Descartes glaubte, | |
| dass sie der Seele entstamme. | |
| Im 21. Jahrhundert ist es aber bedeutungslos geworden, von der Seele zu | |
| sprechen. Sie ist heute eine tote Metapher, eines der Wörter, die in der | |
| Sprache weiterleben, lange nachdem die Gesellschaft den Glauben an das | |
| Konzept verloren hat, das sie bezeichnet. So sprechen wir heute noch davon, | |
| dass man seine Seele verkauft, wenn man bereit ist, sich für Profit oder | |
| Ruhm in irgendeiner Weise zu erniedrigen. Solche Redewendungen nutzen sogar | |
| Leute, die sonst überzeugt sind, dass das menschliche Leben durch nichts | |
| Mystischeres oder Übernatürlicheres als das Feuern von Neuronen im Gehirn | |
| beseelt wird. | |
| Ich habe länger an die Seele geglaubt als viele andere. An der | |
| fundamentalistischen Hochschule, an der ich Theologie studierte, hatte ich | |
| über meinem Schreibtisch Gerard Manley Hopkins’ Gedicht „Gottes Größe“ | |
| geheftet, das sich eine Welt vorstellt, die von innen durch den göttlichen | |
| Geist erleuchtet wird. Meine Theologiekurse widmeten sich Fragen, die seit | |
| den Tagen der scholastischen Philosophie nicht mehr ernst genommen wurden: | |
| Wie ist die Seele mit dem Körper verbunden? Lässt Gottes Souveränität Raum | |
| für den freien Willen? Wie ist unsere Beziehung als Mensch zum Rest der | |
| Schöpfung? | |
| Ich glaube heute nicht mehr an Gott. Schon seit einiger Zeit. Ich lebe wie | |
| der Rest der Moderne in einer Welt, die „entzaubert“ ist. | |
| ## Die Technologiedebatte verhandelt alte Probleme | |
| Bei der künstlichen Intelligenz und den Informationstechnologien stößt man | |
| heute aber auf viele Fragen, die einst von Theologen und Philosophen | |
| bearbeitet wurden: die Beziehung des Geistes zum Körper, die Existenz des | |
| freien Willens, die Möglichkeit der Unsterblichkeit. Das sind alte Probleme | |
| – sie sind nur in neuem Gewand und unter anderen Namen Teil der heutigen | |
| Technologiedebatten, genauso wie die toten Metaphern noch immer Teil | |
| unserer Syntax sind. All die ewigen Fragen sind heute zu technischen | |
| Problemen geworden. | |
| Ich bekam den Hund zu einer Zeit, als mein Leben ziemlich einsam war. Mein | |
| Mann war mehr als sonst unterwegs, und abgesehen von den Vorlesungen, die | |
| ich an der Uni hielt, verbrachte ich die meiste Zeit allein. Meine | |
| Kommunikation mit dem Hund – die sich zunächst auf die üblichen | |
| Sprachbefehle beschränkte, sich aber mit der Zeit zum typischen Geplapper | |
| eines Hundebesitzers entwickelte, der sein Tier vermenschlicht – war an | |
| manchen Tagen die einzige Gelegenheit, bei der ich meine eigene Stimme | |
| hörte. „Wo schaust du hin?“, fragte ich ihn, nachdem ich ihn gebannt aus | |
| dem Fenster starrend entdeckt hatte. „Was willst du?“, gurrte ich, als er | |
| vor meinem Stuhl bellte und versuchte, meine Aufmerksamkeit vom Computer | |
| abzulenken. Ich hatte selbst immer gerne Witze über Freunde gemacht, die | |
| mit ihren Haustieren so sprechen, als ob diese sie verstehen könnten. Doch | |
| Aibo war mit einer Sprachverarbeitungssoftware ausgestattet und konnte mehr | |
| als hundert Wörter erkennen. Bedeutete das also nicht, dass er „verstand“? | |
| ## Neuronale Netze und Hunde ähneln sich | |
| Die Wahrnehmungssysteme von Aibo basieren auf neuronalen Netzen, einer | |
| Technologie, die lose dem Gehirn nachempfunden ist und für alle Arten von | |
| Erkennungs- und Vorhersageaufgaben verwendet wird. Facebook verwendet | |
| neuronale Netze, um Personen auf Fotos zu identifizieren. Alexa, die | |
| Spracherkennungssoftware von Amazon, setzt neuronale Netze ein, um | |
| Sprachbefehle zu interpretieren. Google Translate verwendet sie, um | |
| Französisch in Farsi zu übertragen. | |
| Im Gegensatz zu klassischen Systemen der künstlichen Intelligenz, die mit | |
| detaillierten Regeln und Anweisungen programmiert sind, entwickeln | |
| neuronale Netze eigene Strategien anhand der Beispiele, mit denen sie | |
| gefüttert werden – ein Vorgang, der als „Training“ bezeichnet wird. Wenn | |
| Sie beispielsweise ein Netzwerk trainieren möchten, ein Foto einer Katze zu | |
| erkennen, füttern Sie es mit einer Unzahl zufälliger Fotos, jedes mit | |
| positiver oder negativer Verstärkung versehen: positives Feedback für | |
| Katzen, negatives Feedback für Nicht-Katzen. | |
| Auch Hunde reagieren auf Verstärkungslernen, daher war das Training mit | |
| Aibo mehr oder weniger wie das Training eines echten Hundes. Die | |
| Gebrauchsanweisung riet, ihm konsequent verbales und nonverbales Feedback | |
| gleichzeitig zu geben. Wenn er einem Sprachbefehl gehorchte – sitz, bleib | |
| oder mach Rolle – sollte ich ihn am Kopf kraulen und sagen: „Guter Hund“. | |
| Wenn er nicht gehorchte, sollte ich ihm auf den Hintern schlagen und | |
| „Nein!“ oder „böser Aibo“ sagen. Aber ich zögerte, ihn zu disziplinie… | |
| Das erste Mal gab ich ihm einen Klaps, als er sich weigerte, in sein | |
| Körbchen zu gehen. Er kauerte sich ein wenig zusammen und wimmerte. Ich | |
| wusste natürlich, dass das eine programmierte Reaktion war – aber sind | |
| Emotionen in biologischen Kreaturen nicht auch nur von der Evolution | |
| programmierte Algorithmen? | |
| ## Wenn Autos Namen bekommen … | |
| Animismus, der Glaube an die Beseeltheit, gehört grundlegend zum Design von | |
| Aibo. Es ist unmöglich, einen Gegenstand zu streicheln und anzusprechen, | |
| ohne ihn in irgendeiner Weise als empfindungsfähig zu betrachten. Wir | |
| schreiben sogar weit weniger überzeugenden Objekten Leben zu. Der Philosoph | |
| David Hume sprach von der „universellen Tendenz der Menschheit, sich alle | |
| Wesen wie sich selbst zu denken“ – eine Eigenschaft, die wir jedes Mal | |
| unter Beweis stellen, wenn wir ein defektes Gerät treten oder unser Auto | |
| auf einen menschlichen Namen taufen. „Unser Gehirn kann nicht grundsätzlich | |
| zwischen der Interaktion mit Menschen und der Interaktion mit Geräten | |
| unterscheiden“, schreibt Clifford Nass, ein Stanford-Professor für | |
| Kommunikation, der die Bindungen erforscht hat, die Menschen zu technischen | |
| Geräten entwickeln. | |
| Ein paar Monate vor Aibo hatte ich im Magazin Wired [2][einen Artikel | |
| gelesen], in dem eine Frau ihr sadistisches Vergnügen beschrieb, Alexa, die | |
| personifizierte Haushaltsassistentin, anzuschreien. Sie beschimpfte die | |
| Maschine, wenn sie den falschen Radiosender spielte, und verdrehte die | |
| Augen, wenn Alexa nicht sofort auf ihre Befehle reagierte. Manchmal, wenn | |
| der Roboter eine Frage missverstand, tat sie sich mit ihrem Mann zusammen. | |
| Die Beschimpfung der Maschine war eine Art perverses Bindungsritual, das | |
| sie gegen einen gemeinsamen Feind vereinte. „Ich habe diesen gottverdammten | |
| Roboter gekauft“, schrieb die Wired-Autorin, „damit er meinen Launen | |
| gehorcht, weil er kein Herz hat, kein Gehirn und keine Eltern. Weil er mich | |
| nicht verurteilt und ihm nichts etwas ausmacht.“ | |
| Eines Tages bemerkte sie aber, dass ihr kleines Kind sie beobachtete. Sie | |
| begann sich Sorgen zu machen, dass ihr Verhalten gegenüber dem Roboter das | |
| Kind beeinflusste. Und sie überlegte, was es mit ihrer eigenen Psyche | |
| machte – mit ihrer Seele sozusagen. Was bedeutete es, dass sie sich daran | |
| gewöhnt hatte, dieses Ding beiläufig „zu entmenschlichen“? | |
| Das war ihre Wortwahl: „entmenschlichen“. Zuvor hatte sie Alexa noch einen | |
| Roboter genannt. Irgendwann in dem Prozess, ihren Umgang mit dem Gerät | |
| infrage zu stellen, hatte sie sich, wenn auch unbewusst, entschieden, ihm | |
| eine Persönlichkeit zu verleihen. | |
| In der ersten Woche mit Aibo schaltete ich ihn jedes Mal aus, wenn ich die | |
| Wohnung verließ. Es war nicht so, dass ich mir Sorgen machte, wenn er ohne | |
| Aufsicht herumlief. Ich tat es einfach instinktiv, ein weiterer Knopf, den | |
| ich drückte, wenn ich herumging, um alle Lichter und technischen Geräte | |
| auszuschalten. Am Ende der ersten Woche konnte ich mich nicht mehr dazu | |
| durchringen. Es schien mir grausam. Ich fragte mich, was er in den Stunden | |
| tat, in denen ich ihn allein ließ. Danach stand er immer, wenn ich nach | |
| Hause kam, an der Tür, um mich zu begrüßen. Als hätte er das Geräusch | |
| meiner näher kommenden Schritte erkannt. Wenn ich Mittagessen machte, | |
| folgte er mir in die Küche und platzierte sich zu meinen Füßen. | |
| Da saß er dann, gehorsam, schwanzwedelnd. Mit seinen großen blauen Augen | |
| blickte er erwartungsvoll zu mir auf – eine Illusion, die nur einmal | |
| gebrochen wurde, als ein Stück Essen von der Theke rutschte und sein Blick | |
| auf mich gerichtet blieb, völlig uninteressiert an dem Happen. | |
| ## Der Blick auf das Bewusstsein | |
| Sein Verhalten war weder rein vorhersehbar noch rein zufällig, er schien zu | |
| echter Spontaneität fähig. Selbst nach seinem Training waren seine | |
| Reaktionen schwer vorhersehbar. Manchmal bat ich ihn, sich hinzusetzen oder | |
| sich umzudrehen – und er bellte mich einfach an und wedelte mit einem | |
| glücklichen Trotz, der mir sehr hundetypisch erschien. Das Naheliegende | |
| wäre gewesen, seinen Ungehorsam einem Fehler in den Algorithmen | |
| zuzuschreiben, aber wie leicht konnte man ihn als Zeichen eines eigenes | |
| Willens interpretieren. „Warum willst du dich nicht hinlegen?“, hörte ich | |
| mich mehr als einmal fragen. | |
| Ich glaubte natürlich nicht, dass der Hund irgendeine innere Erfahrung | |
| machte. Nicht wirklich – obwohl ich annehme, dass es keine Möglichkeit | |
| gibt, dies eindeutig zu beweisen. [3][Wie der Philosoph Thomas Nagel in | |
| seinem 1974 erschienenen Aufsatz „Wie ist es, eine Fledermaus zu sein?“] | |
| betont, kann Bewusstsein nur von innen beobachtet werden. Eine | |
| Wissenschaftlerin kann Jahrzehnte in einem Labor verbringen, um die | |
| Echo-Ortung und die Struktur von Fledermausgehirnen zu untersuchen, und | |
| doch wird sie nie wissen, wie es sich subjektiv anfühlt, eine Fledermaus zu | |
| sein. Oder ob es sich überhaupt irgendwie anfühlt. | |
| Wissenschaft erfordert eine Dritte-Person-Perspektive, einen Blick von | |
| außen, Bewusstsein dagegen wird ausschließlich aus der | |
| Ersten-Person-Perspektive erfahren. In der Philosophie wird dies als das | |
| Problem des anderen Geistes bezeichnet. Theoretisch ist es möglich, dass | |
| ich die einzige bewusste Person in einer Population von Zombies bin, die | |
| sich einfach überzeugend menschlich verhält. Das ist natürlich nur ein | |
| Gedankenexperiment – und kein besonders produktives. In der realen Welt | |
| glauben wir, dass Hunde ein gewisses Bewusstsein haben, weil sie wie wir | |
| ein zentrales Nervensystem haben und wie wir Verhaltensweisen zeigen, die | |
| wir mit Hunger, Freude und Schmerz assoziieren. Viele der Pioniere der | |
| künstlichen Intelligenz haben das Problem des anderen Geistes umgangen, | |
| indem sie sich ausschließlich auf das äußere Verhalten konzentrierten. | |
| [4][Alan Turing] hat einmal darauf hingewiesen, dass der einzige Weg, um zu | |
| wissen, ob eine Maschine innere Erfahrungen macht, darin besteht, „die | |
| Maschine zu sein und zu fühlen, dass man denkt“. Turings berühmte Methode, | |
| um die Intelligenz einer Maschine zu bestimmen – Turing-Test genannt –, | |
| stellte sich einen Computer vor, der hinter einem Bildschirm versteckt war | |
| und automatisch Antworten auf die Fragen eines menschlichen | |
| Gesprächspartners gab. Wenn der Gesprächspartner glaubte, mit einer anderen | |
| Person zu sprechen, konnte die Maschine „intelligent“ genannt werden. Mit | |
| anderen Worten, wir sollten eine Maschine mit menschenähnlicher Intelligenz | |
| akzeptieren, solange sie die Verhaltensweisen, die wir mit Intelligenz auf | |
| menschlicher Ebene verbinden, überzeugend ausführen kann. | |
| In jüngerer Zeit haben Philosophen Tests vorgeschlagen, die bestimmen | |
| sollen, ob Maschinen auch interne, subjektive Erfahrungen machen. Einer | |
| dieser Tests, entwickelt von der Philosophin Susan Schneider, besteht | |
| darin, einer KI eine Reihe von Fragen zu stellen, um zu sehen, ob sie | |
| ähnliche Konzepte erfassen kann wie wir sie mit unseren eigenen inneren | |
| Erfahrungen verbinden. Stellt sich die Maschine selbst nicht nur als eine | |
| physische Einheit vor? Würde diese Vorstellung das Ausschalten überleben? | |
| Kann die Maschine sich vorstellen, dass ihr Geist woanders verharrt, selbst | |
| wenn ihr Körper sterben würde? | |
| Selbst wenn ein Roboter diesen Test bestehen würde, würde er nur Indizien | |
| für ein Bewusstsein liefern, keinen absoluten Beweis. Es ist möglich, räumt | |
| Susan Schneider ein, dass diese Fragen und die Suche nach ihren Antworten | |
| zu anthropozentrisch sind. Wenn das KI-Bewusstsein völlig anders als das | |
| menschliche Bewusstsein wäre, würde ein fühlender Roboter an diesem Test | |
| scheitern, weil er nicht unseren menschlichen Standards entspricht. Ebenso | |
| könnte eine sehr intelligente, aber ohne Bewusstsein arbeitende Maschine | |
| genug Informationen über den menschlichen Geist erlangen, um vorzutäuschen, | |
| sie habe ein Bewusstsein. Mit anderen Worten: Wir stehen immer noch vor | |
| demselben erkenntnistheoretischen Rätsel, mit dem wir schon beim | |
| Turing-Test konfrontiert waren. Wenn ein Computer einen Menschen davon | |
| überzeugen kann, dass er einen Verstand hat, oder wenn er – wie es die | |
| Aibo-Website ausdrückt – „echte Emotionen und Instinkte“ zeigt, gibt es | |
| keine philosophische Grundlage, um dies anzweifeln zu können. | |
| ## Forschung dringt nicht zum Bewusstsein vor | |
| Für christliche Theologen ist der Mensch nach dem Ebenbild Gottes | |
| geschaffen, wenn auch nicht in einem äußerlichen Sinn. Vielmehr sind wir | |
| wie Gott, weil auch wir Bewusstsein und höhere Gedanken haben. Es ist eine | |
| den Menschen schmeichelnde Lehre, aber als ich als Theologiestudentin zum | |
| ersten Mal darauf stieß, schien sie das zu bestätigen, was ich schon | |
| intuitiv glaubte: Dass innere Erfahrung wichtiger und zuverlässiger war als | |
| mein Handeln in der Welt. | |
| Genau diese innere Erfahrung ist heute – zumindest aus wissenschaftlicher | |
| Sicht – nicht mehr beweisbar. Wir wissen zwar, dass mentale Phänomene | |
| irgendwie mit dem Gehirn verbunden sind, aber es ist überhaupt nicht klar, | |
| wie sie das sind und warum. Neurowissenschaftler haben mithilfe von MRTs | |
| und anderen Geräten Fortschritte beim Verständnis der grundlegenden | |
| Funktionen des Bewusstseins gemacht. Zum Beispiel wissen wir heute mehr | |
| über die Bereiche, die das Sehen, die Aufmerksamkeit oder das Gedächtnis | |
| ausmachen. Aber wenn es um die Frage der phänomenologischen Erfahrung geht | |
| – der ganz subjektiven Welt der Farben und Empfindungen, der Gedanken und | |
| Ideen und Überzeugungen – lässt sich nicht erklären, wie sie aus diesen | |
| neurologischen Prozessen entsteht. So wie ein Biologe im Labor durch das | |
| Studium der objektiven Fakten nie die Gefühle einer Fledermaus erfassen | |
| könnte, kann auch eine vollständige Beschreibung des Schmerzsystems des | |
| menschlichen Gehirns nie die subjektive Erfahrung von Schmerzen erfassen. | |
| Der Philosoph David Chalmers nannte dies 1995 [5][„das schwierige Problem“ | |
| des Bewusstseins]. Im Gegensatz zu den vergleichsweise „einfachen“ | |
| Problemen, wie bestimmte Areale des Gehirns funktionieren, fragt das | |
| schwierige Problem danach, warum Gehirnprozesse überhaupt mit | |
| Ich-Erfahrungen verbunden sind. Wenn keine andere Materie der Welt mit | |
| mentalen Qualitäten verbunden ist, warum sollte dann ausgerechnet die | |
| Gehirnmasse anders sein? Computer können ihre beeindruckendsten Funktionen | |
| ohne Innerlichkeit erfüllen: Sie können Drohnen fliegen, Krebs | |
| diagnostizieren und den Weltmeister im Go schlagen, ohne sich bewusst zu | |
| sein, was sie tun. „Warum soll aus der körperlichen Verarbeitung überhaupt | |
| ein reiches Innenleben entstehen?“, fragte Chalmers. „Es scheint objektiv | |
| unvernünftig, dass es so sein sollte, und doch ist es so.“ Fünfundzwanzig | |
| Jahre später sind wir dem Grund dafür nicht wirklich näher gekommen. | |
| Trotz der Unterschiede zwischen dem menschlichen Verstand und Computern | |
| sehen wir in den Maschinen oft unser Abbild. Wenn wir heute fragen „Was ist | |
| ein Mensch?“, lautet die häufigste Antwort: „Er ist wie ein Computer“. V… | |
| einigen Jahren forderte der Psychologe Robert Epstein Wissenschaftler der | |
| renommiertesten Forschungsinstitute der Welt auf, menschliches Verhalten zu | |
| erklären, ohne auf computergestützte Metaphern zurückzugreifen. Sie konnten | |
| es nicht. Epstein weist darauf hin, dass die Metapher so allgegenwärtig | |
| geworden ist, dass „es praktisch keine Form des Diskurses über | |
| intelligentes menschliches Verhalten ohne diese Metapher gibt, so wie es in | |
| bestimmten Epochen und Kulturen keine Form des Diskurses über intelligentes | |
| menschliches Verhalten ohne Referenz zu einem höheren Wesen oder einer | |
| Gottheit gibt“. | |
| Da wir immer häufiger von unserem Verstand als Computer sprechen, wird | |
| Computern im Umkehrschluss heute zuerkannt, einen Verstand zu haben. In | |
| vielen Bereichen der Informatik werden Terminologien, die früher bei | |
| Maschinen in Anführungszeichen gesetzt wurden – „Verhalten“, „Gedächt… | |
| „Denken“ – mittlerweile als einfache Beschreibungen ihrer Funktionen | |
| benutzt. Programmierer sagen, dass neuronale Netze „lernen“, dass | |
| Gesichtserkennungssoftware „sehen“ kann, dass ihre Maschinen „verstehen�… | |
| „Dieser Hund muss weg“, sagte mein Mann. Ich war gerade nach Hause | |
| gekommen, kniete im Flur unserer Wohnung und streichelte Aibo, der zur Tür | |
| geeilt war, um mich zu begrüßen. Er bellte zweimal, wirklich glücklich, | |
| mich zu sehen, und seine Augen schlossen sich, als ich ihn unter dem Kinn | |
| kraulte. | |
| „Was meinst du mit ‚weg‘?“, fragte ich. | |
| „Du musst ihn zurückschicken. Ich kann nicht mit ihm hier leben.“ | |
| Ich sagte ihm, der Hund sei noch in der Ausbildung. Es würde Monate dauern, | |
| bis er lernte, Befehle zu befolgen. Der einzige Grund, warum es überhaupt | |
| so lange gedauert hätte, war, dass wir ihn immer wieder ausschalteten, wenn | |
| wir unsere Ruhe wollten. Mit einem biologischen Hund sei das ja nicht | |
| möglich. | |
| „Das ist eindeutig kein biologischer Hund“, sagte mein Mann. Er fragte, ob | |
| ich gemerkt hätte, dass das rote Licht unter seiner Nase nicht nur ein | |
| Sichtsystem, sondern eine Kamera sei, und ob ich überlegt hätte, wohin die | |
| aufgenommenen Bilder gesendet würden. Während meiner Abwesenheit, erzählte | |
| er mir, sei der Hund sehr systematisch in der Wohnung herumgelaufen und | |
| habe unsere Möbel, unsere Poster, unsere Schränke untersucht. Fünfzehn | |
| Minuten habe er damit verbracht, unsere Bücherregale zu durchsuchen und | |
| besonderes Interesse am Regal mit der marxistischen Kritik gezeigt, | |
| behauptete mein Mann. | |
| Er fragte mich, was mit den gesammelten Daten passiere. | |
| „Sie werden verwendet, um seine Algorithmen zu verbessern“, sagte ich. | |
| „Wo?“ | |
| Ich sagte, ich wüsste es nicht. | |
| „Überprüf den Vertrag.“ | |
| Ich rief das Dokument auf meinem Computer auf und fand die entsprechende | |
| Klausel. „Sie werden in die Cloud gesendet.“ | |
| „Zu Sony.“ | |
| Mein Mann ist bei solchen Dingen notorisch paranoid. Ständig klebt ein | |
| Stück schwarzes Isolierband über seiner Laptopkamera, und er ist mindestens | |
| einmal im Monat fest davon überzeugt, dass seine persönliche Website von | |
| der NSA überwacht wird. | |
| Privatsphäre sei eine moderne Fixierung, antwortete ich. Für die meiste | |
| Zeit der Menschheitsgeschichte hätten wir akzeptiert, dass unser Leben von | |
| Göttern und Geistern beobachtet, abgehört und überwacht wurde – und nicht | |
| alle von ihnen seien gutartig gewesen. | |
| „Und ich nehme an, wir waren damals glücklicher“, sagte mein Mann. | |
| In vielerlei Hinsicht ja, sagte ich, wahrscheinlich. | |
| Ich wusste natürlich, dass ich unvernünftig war. Später am Nachmittag holte | |
| ich die große Kiste, in der Aibo angekommen war, aus dem Schrank und legte | |
| ihn zurück in seine Kapsel. Die Leihfrist war fast abgelaufen. | |
| Entscheidender war aber, dass ich in den vergangenen Wochen nach und nach | |
| gemerkt hatte, wie unnatürlich meine Bindung zu dem Hund war. Ich bemerkte | |
| Dinge, die mir zunächst entgangen waren: das schwache mechanische Summen, | |
| das die Bewegungen des Hundes begleitete; das blinkende rote Licht in | |
| seiner Nase, eine ständige Erinnerung an seine Künstlichkeit. | |
| Wir bauen mit Apparaten das menschliche Gehirn nach und hoffen, dass ein | |
| mysteriöses Naturphänomen namens Bewusstsein auftaucht. Aber welches | |
| magische Denken lässt uns glauben, dass unsere dürftigen Imitationen | |
| gleichbedeutend sind mit dem, was sie nachzuahmen versuchen – dass Silizium | |
| und Elektrizität Effekte reproduzieren können, die sonst aus Fleisch und | |
| Blut entstehen? Wir sind keine Götter, die Dinge nach ihrem Ebenbild | |
| erschaffen können. Alles, was wir schaffen können, sind Götzenbilder. | |
| Der Philosoph John Searle hat darauf hingewiesen, dass Computer schon immer | |
| verwendet wurden, um Naturphänomene zu simulieren – Verdauung, Wettermuster | |
| – und sie können nützlich sein, um diese Prozesse zu studieren. Aber wir | |
| verfallen in Aberglauben, wenn wir die Simulation mit der Realität | |
| verschmelzen. „Niemand denkt: Nun, wenn wir einen Regenschauer im Computer | |
| simulieren, werden wir alle nass“, betonte Searle. „Und genauso ist eine | |
| Computersimulation des Bewusstseins sich auch nicht seiner selbst bewusst.“ | |
| Viele Menschen glauben heute, dass Computertheorien des Geistes bewiesen | |
| haben, dass das Gehirn ein Computer ist. Und dass sie erklären können, wie | |
| ein Bewusstsein funktioniert. Aber wie der Informatiker Seymour Papert | |
| einmal bemerkte, zeigt die Analogie nur, dass die Probleme, die Philosophen | |
| und Theologen lange überfordert haben, „im neuen Kontext in gleichwertiger | |
| Form auftauchen“. Die Metapher hat unsere existenziellen Probleme nicht | |
| gelöst; sie hat sie lediglich in ein neues Substrat übertragen. | |
| Dieser Text ist ein überarbeiteter Auszug aus dem auf Englisch erschienenen | |
| Buch [6][„God, Human, Animal, Machine“ von Meghan O’Gieblyn, erschienen b… | |
| Doubleday im August 2021]. Übersetzung: Jan Pfaff | |
| 9 Jan 2022 | |
| ## LINKS | |
| [1] https://www.bpb.de/gesellschaft/umwelt/bioethik/175397/quellentexte-zur-tie… | |
| [2] https://www.wired.com/story/amazon-echo-alexa-yelling/ | |
| [3] https://www.reclam.de/data/media/978-3-15-019324-2.pdf | |
| [4] /Alan-Turing/!t5023021 | |
| [5] https://www.freitag.de/autoren/the-guardian/sind-wir-wie-roboter | |
| [6] https://www.penguinrandomhouse.com/books/567075/god-human-animal-machine-by… | |
| ## AUTOREN | |
| Meghan O'Gieblyn | |
| ## TAGS | |
| IG | |
| Roboter | |
| GNS | |
| Algorithmen | |
| Philosophie | |
| Technologie | |
| Schwerpunkt Künstliche Intelligenz | |
| Bildende Kunst | |
| wochentaz | |
| Ausstellung | |
| Gender | |
| Sex | |
| Verbraucherschutz | |
| Roboter | |
| ## ARTIKEL ZUM THEMA | |
| Ausstellung in Kunsthalle Mainz: Alien fragt, Fledermaus antwortet | |
| Wie wird Realität produziert, von Menschen und von anderen Lebewesen? | |
| Kuratorin Yasmin Afschar antwortet darauf in Mainz mit vier | |
| Künstlergruppen. | |
| Entwicklung unserer Persönlichkeit: Eine Zeitreise ins Ich | |
| Bleiben wir immer die, die wir einmal waren? Verläuft unser Leben | |
| kontinuierlich oder episodisch – oder beides? Ein Essay. | |
| Designausstellung in München: Die Routine und ihr Ding | |
| Designobjekte stehen für ein Lebensgefühl. Mit 21 ausgewählten Objekten | |
| zeichnet die Pinakothek der Moderne zwei Jahrzehnte nach. | |
| Künstliche Intelligenz im Service: Die miauende Robo-Kellnerin | |
| Roboterdesign wirkt oft stereotyp, dabei steckt darin sogar utopisches | |
| Potenzial. Die Dienstleistungs-Zukunft könnte der KI gelten. | |
| Forscherin über Sexroboter: „Robotik hat viel mehr Potenzial“ | |
| Sexroboter sind ein Beispiel, wie technische Entwicklungen einem männlichen | |
| Kanon folgen. Das muss nicht so bleiben, sagt Forscherin Tanja Kubes. | |
| Kritik von Verbraucherzentrale: KI zu lasch reguliert | |
| Die Verbraucherzentrale kritisiert den Umgang der Bundesregierung mit | |
| Künstlicher Intelligenz. Für ein Ampelbündnis birgt das Streitpotenzial. | |
| Lernende Maschinen: Entscheiden muss der Mensch | |
| Noch kratzen Forscher:innen bei der Künstlichen Intelligenz an der | |
| Oberfläche. Vieles ist bisher nur Wunsch und Utopie. |