| # taz.de -- Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
| > Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
| > zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
| Bild: Ist das nur eine Maschine? | |
| Hod Lipson hat den größten Teil seiner Karriere mit einer Sache verbracht, | |
| die man in seiner Branche auch „das C-Wort“ nennt. An einem sonnigen Morgen | |
| sitzt der in Israel geborene Roboteringenieur hinter einem Tisch in seinem | |
| Labor und sagt: „Dieses Thema war tabu. Es war uns fast verboten, darüber | |
| zu sprechen. ‚Redet nicht über das C-Wort, sonst bekommt ihr keine | |
| Anstellung.‘ Anfangs musste ich deshalb oft so tun, als ginge es um etwas | |
| anderes.“ Lipson, der heute das Creative Machines Lab an der Columbia | |
| University in New York leitet, grinst ein bisschen, als er das sagt. | |
| Zwischen seinen Vorderzähnen blitzt eine kleine Lücke auf. | |
| So sprach man in den frühen Nullerjahren über Roboterentwicklung, als | |
| Lipson noch Assistenzprofessor an der Cornell University in New York war. | |
| Er arbeitete damals an der Entwicklung von Maschinen, die erkennen, wenn | |
| etwas mit ihrer eigenen Hardware nicht stimmt – ein defektes Teil, eine | |
| fehlerhafte Verkabelung –, und daraufhin ihr Verhalten ändern, um den Bug | |
| ohne die lenkende Hand eines Programmierers zu kompensieren. So wie ein | |
| Hund, der bei einem Unfall ein Bein verloren hat und sich danach selbst | |
| beibringen kann, auf eine andere Art zu laufen. | |
| Diese eingebaute Anpassungsfähigkeit werde immer wichtiger, je mehr wir uns | |
| auf Maschinen verließen, sagt Lipson. Roboter würden heute für chirurgische | |
| Eingriffe, die Herstellung von Lebensmitteln und den Warentransport | |
| eingesetzt; die Anwendungsmöglichkeiten für Maschinen seien [1][schier | |
| endlos]. Weil sie immer mehr unser Leben bestimmten, könne jeder Fehler in | |
| ihrer Funktionsweise gleichbedeutend mit einer Katastrophe sein. „Wir | |
| werden unser Leben buchstäblich einem Roboter überlassen“, sagt er. „Also | |
| will man, dass diese Maschinen widerstandsfähig sind.“ | |
| Um das zu erreichen, kann man sich zum Beispiel von der Natur inspirieren | |
| lassen. Tiere und insbesondere Menschen sind gut darin, sich an | |
| Veränderungen anzupassen. Diese Fähigkeit könnte man als Ergebnis einer | |
| Millionen Jahre währenden Evolution sehen: Auf Verletzungen und | |
| Veränderungen in der Umwelt zu reagieren, erhöht in der Regel die Chancen | |
| eines Tiers, zu überleben und sich fortzupflanzen. | |
| Lipson hat sich gefragt, ob man diese Art von natürlicher Selektion in | |
| seinem Code nachbilden und so eine verallgemeinerbare Form von Intelligenz | |
| schaffen kann, die etwas über ihren eigenen Körper und ihre eigenen | |
| Funktionen lernen kann – ganz egal, was für ein Körper das ist und welche | |
| Funktion er hat. | |
| Wenn es möglich wäre, eine solche Intelligenz zu entwickeln, wäre sie | |
| flexibel und schnell. Sie wäre in stressigen Situationen genauso gut wie | |
| der Mensch oder sogar besser. | |
| Weil das maschinelle Lernen immer besser funktionierte, schien dieses Ziel | |
| realisierbar. Lipson erhielt eine Festanstellung, ihm eilte ein Ruf als | |
| kreativer und ehrgeiziger Ingenieur voraus. Also begann er, seine | |
| grundlegende Motivation für diese Arbeit zu formulieren. Er sprach das | |
| C-Wort laut aus: consciousness, auf Deutsch: Bewusstsein. Er wollte Roboter | |
| mit einem Bewusstsein erschaffen. | |
| „Dies ist nicht bloß eine weitere Forschungsfrage – es ist die Frage aller | |
| Fragen“, sagt er. „Es geht um mehr als die Heilung von Krebs. Wenn wir eine | |
| Maschine erschaffen können, die ein Bewusstsein hat, das dem des Menschen | |
| ebenbürtig ist, wird das alles andere in den Schatten stellen, was wir | |
| bisher gemacht haben. Diese Maschine kann selbst Krebs heilen.“ | |
| Das Creative Machines Lab im ersten Stock des Seeley W. Mudd Building der | |
| Columbia University ist in Boxen unterteilt. In Fächern verstreut finden | |
| sich Roboter und ihre Einzelteile. Ein blaues Gesicht starrt ausdruckslos | |
| aus einem Regal; eine grüne, spinnenartige Maschine, die ihre Beine aus | |
| einem Korb auf dem Boden streckt, ist zu sehen, zudem ein zierlicher | |
| Libellenroboter, der auf einem Arbeitstisch balanciert. | |
| ## Philosophen und Ingenieure | |
| Die erste Schwierigkeit bei der Analyse des C-Worts besteht darin, dass es | |
| keinen Konsens darüber gibt, worauf es sich eigentlich bezieht. Bei vielen | |
| vagen Begriffen wie etwa Freiheit, Sinn, Liebe und Existenz ist dies der | |
| Fall, doch oft sind diese Bereiche Philosophen vorbehalten, nicht | |
| Ingenieuren. | |
| Einige haben versucht, Bewusstsein mithilfe von Gehirnfunktionen oder | |
| metaphysischen Stoffen zu klassifizieren, aber diese Versuche sind wenig | |
| überzeugend und werfen eher weitere Fragen auf. Selbst eine weit | |
| verbreitete Definition des sogenannten phänomenalen Bewusstseins, wie die | |
| des Philosophen Thomas Nagel, mutet vage an. Er spricht von einem bewussten | |
| Organismus, „wenn es etwas gibt, das weiß, was es heißt, dieser Organismus | |
| zu sein“. | |
| Für Robotiker und Informatiker ist es wenig zufriedenstellend, derart im | |
| Trüben zu fischen. Antonio Chella, Robotiker an der Universität von Palermo | |
| in Italien, sagt: „Solange das Bewusstsein nicht mitgedacht wird, hat man | |
| das Gefühl, dass [den intelligenten Maschinen] etwas fehlt.“ | |
| Schon in den Anfängen der Forschung zur künstlichen Intelligenz im Jahr | |
| 1955 hatte man es auf [2][menschliche Züge] abgesehen, als eine Gruppe von | |
| Wissenschaftlern in Dartmouth fragte, wie Maschinen „Probleme lösen und | |
| sich selbst verbessern können, wie es heute dem Menschen vorbehalten ist“. | |
| Sie wollten fortgeschrittene Fähigkeiten des Gehirns wie Sprache, | |
| abstraktes Denken und Kreativität maschinell nachbilden. Für viele dieser | |
| Fähigkeiten scheint das Bewusstsein von zentraler Bedeutung zu sein. | |
| Der Versuch, das schwammige C-Wort mit belastbaren Daten und Funktionen | |
| darzustellen, ist eine schwierige, wenn nicht gar unmögliche Aufgabe. Die | |
| meisten Robotiker und Ingenieure neigen dabei dazu, die Philosophie zu | |
| übergehen und ihre eigenen Definitionen zu entwickeln. | |
| ## Bewusstsein als Prozess | |
| Thomas Sheridan, emeritierter Professor für Maschinenbau am Massachusetts | |
| Institute of Technology, glaubt, dass das Bewusstsein auf einen bestimmten | |
| Prozess reduziert werden könne und dass, je mehr wir über das Gehirn | |
| herausfinden, das Konzept des Bewusstseins klarer würde. „Was anfangs | |
| unheimlich und irgendwie religiös war, ist jetzt eine Art geradlinige, | |
| objektive Wissenschaft“, meint er. | |
| Nicht nur unter Robotikern sind solche Annahmen verbreitet. Philosophen wie | |
| Daniel Dennett und Patricia Churchland und der Neurowissenschaftler | |
| Michael Graziano haben eine Reihe funktionaler Theorien des Bewusstseins | |
| aufgestellt. | |
| Hod Lipson und seine Mitarbeiter stehen in dieser Tradition. „Ich muss mich | |
| dem Begriff des Bewusstseins praktisch, nüchtern und unromantisch nähern“, | |
| sagt er. Er entschied sich also für ein praktisches Kriterium, um | |
| Bewusstsein zu definieren, und schränkte es auf die Fähigkeit ein, sich in | |
| die Zukunft zu versetzen. | |
| Laut Lipson besteht der grundlegende Unterschied zwischen den verschiedenen | |
| Bewusstseinsformen – dem menschlichen Bewusstsein, dem Bewusstsein einer | |
| Krake oder dem einer Ratte etwa – darin, ob sich das Wesen sich selbst in | |
| der Zukunft vorstellen kann. Bewusstsein müsste man sich demnach als | |
| Kontinuum vorstellen. An dem einen Ende steht ein Organismus, der ein | |
| Gefühl dafür hat, wo er sich in der Welt befindet – ein primitives | |
| Selbstbewusstsein. | |
| Intelligenter ist die Fähigkeit, sich vorzustellen, wo der eigene Körper in | |
| der Zukunft sein wird, darüber hinaus die Fähigkeit, sich vorzustellen, was | |
| eines Tages vorstellbar sein könnte. „Irgendwann werden diese Maschinen | |
| also in der Lage sein zu verstehen, was sie sind und was sie denken“, so | |
| Lipson. „Dann kommen Emotionen und andere Dinge dazu.“ Im Moment, fügt er | |
| hinzu, „sind wir noch bei einem Kakerlakenmodell.“ | |
| Der Vorteil einer so funktionalen Theorie des Bewusstseins liegt darin, | |
| dass sie technologischen Fortschritt ermöglicht. | |
| ## Eine Simulation von sich selbst | |
| Einer der ersten Roboter mit einem Selbstbewusstsein, der aus dem Creative | |
| Machines Lab hervorging, hatte vier klappbare Beine und einen schwarzen | |
| Körper, an dem Sensoren angebracht waren. Dadurch, dass er sich bewegte und | |
| wahrnehmen konnte, wie sich die Informationen, die seine Sensoren | |
| empfingen, veränderten, konnte der Roboter eine Strichmännchensimulation | |
| von sich selbst erstellen. Während er sich weiterbewegte, setzte er einen | |
| Algorithmus für maschinelles Lernen ein, um die Übereinstimmung zwischen | |
| seinem Modell von sich selbst und seinem tatsächlichen Körper zu | |
| verbessern. | |
| Der Roboter nutzte dieses Selbstbild, um – in der Simulation – eine Methode | |
| zu finden, sich vorwärtszubewegen. Daraufhin wendete er diese Methode auf | |
| seinen Körper an. Er hatte herausgefunden, wie er laufen kann, ohne dass es | |
| ihm beigebracht wurde. | |
| Dies sei ein großer Schritt nach vorn, sagt Boyuan Chen, ein Robotiker an | |
| der Duke University, der im Creative Machines Lab arbeitet. „Wenn ich | |
| früher einen Roboter auf eine neue Fähigkeit trainiert habe, war immer ein | |
| Mensch dabei“, sagt er. | |
| Vergangenes Jahr veröffentlichten Boyuan Chen und Hod Lipson [3][einen | |
| Artikel in der Zeitschrift Science Robotics], in dem sie ihre derart | |
| selbstbewusste Maschine vorstellten: einen einfachen Zweiarmroboter, der an | |
| einem Tisch befestigt war. Mithilfe von Kameras, die um ihn herum | |
| angebracht waren, beobachtete der Roboter sich selbst, während er sich | |
| bewegte – „wie ein Baby in einer Wiege, das sich selbst in einem Spiegel | |
| betrachtet“, so Lipson. | |
| Anfangs hatte der Roboter kein Gefühl dafür, wo er sich im Raum befand, | |
| doch innerhalb weniger Stunden war er dank eines leistungsstarken | |
| Deep-Learning-Algorithmus und eines Wahrscheinlichkeitsmodells in der Lage, | |
| sich in der Welt zurechtzufinden. „Er hat eine wolkige Vorstellung von sich | |
| selbst“, sagt Lipson. | |
| Aber war das schon Bewusstsein? | |
| ## Sprache und Körper | |
| Wenn man sich auf eine einzige Theorie des Bewusstseins festlegt, besteht | |
| das Risiko, dass man sich angreifbar macht. Sicher, die Selbstwahrnehmung | |
| scheint wichtig, aber gibt es nicht noch andere Schlüsselmerkmale für das | |
| Bewusstsein? Können wir etwas als bewusst bezeichnen, wenn es sich für uns | |
| nicht bewusst anfühlt? | |
| Der italienische Robotiker Antonio Chella glaubt, Bewusstsein könne ohne | |
| Sprache nicht existieren. Er hat Roboter entwickelt, die innere Monologe | |
| führen können und die über sich und über die Dinge, die um sie herum | |
| passieren, reflektieren können. Einer seiner Roboter war in der Lage, sich | |
| selbst im Spiegel zu erkennen, und bestand damit den wohl berühmtesten Test | |
| des tierischen Selbstbewusstseins. | |
| Joshua Bongard, ein Robotiker an der Universität von Vermont und ehemaliges | |
| Mitglied des Creative Machines Lab, glaubt, dass Bewusstsein nicht nur aus | |
| Kognition und geistiger Aktivität besteht, sondern auch ganz wesentlich | |
| einen körperlichen Aspekt hat. Er hat Geschöpfe entwickelt, die er Xenobots | |
| nennt. Sie bestehen aus Froschzellen, die so miteinander verbunden sind, | |
| dass ein Programmierer sie wie Maschinen steuern kann. | |
| Laut Bongard ist es nicht nur so, dass Menschen und Tiere sich so | |
| entwickelt haben, dass sie sich an ihre Umgebung anpassen und miteinander | |
| interagieren können. Auch unsere Gewebe hätten sich so entwickelt, dass sie | |
| auf diese Art anpassungsfähig sein können, unsere Zellen hätten sich so | |
| entwickelt, dass sie unseren Geweben dienen können. „Wir sind intelligente | |
| Maschinen, die aus intelligenten Maschinen gemacht sind, die aus | |
| intelligenten Maschinen gemacht sind, und immer so weiter, bis nach ganz | |
| unten“, sagt er. | |
| Im Sommer vergangenen Jahres, etwa zur selben Zeit als Lipson und Chen | |
| ihren neuesten Roboter vorstellten, erklärte ein Google-Ingenieur, dass der | |
| verbesserte Chatbot des Unternehmens, genannt LaMDA, [4][ein Bewusstsein | |
| habe und es verdiene, wie ein kleines Kind behandelt zu werden]. Diese | |
| Aussage wurde mit Skepsis aufgenommen, vor allem, weil, wie Lipson | |
| feststellt, der Chatbot „einen Code verarbeitet, der geschrieben wurde, um | |
| eine Aufgabe zu erfüllen“. Es gebe keine zugrunde liegende Struktur des | |
| Bewusstseins, so andere Forscher, sondern nur eine Illusion davon. Lipson | |
| sagt: „Der Roboter war sich seiner selbst nicht bewusst. Das ist | |
| Betrügerei.“ | |
| Aber wer kann bei so viel Dissens schon sagen, was Betrug ist und was | |
| nicht? | |
| ## Freiheitsrechte für Roboter? | |
| Eric Schwitzgebel, Philosophieprofessor an der University of California in | |
| Riverside, der zu künstlichem Bewusstsein geforscht hat, glaubt zu wissen, | |
| woher die Ungewissheit rührt: Bei der Geschwindigkeit, mit der die Dinge | |
| voranschritten, werde die Menschheit wahrscheinlich eher einen Roboter | |
| entwickeln, dem viele Bewusstsein zusprechen würden, als dass sie sich | |
| darüber einig werde, welche Kriterien das Bewusstsein überhaupt definieren. | |
| Wenn es so kommen sollte, sollte man dem Roboter dann Rechte zugestehen? | |
| Freiheitsrechte? Sollte er so programmiert werden, dass er Glücksgefühle | |
| empfindet, wenn er uns dient? Soll er für sich selbst sprechen dürfen? Soll | |
| er wählen dürfen? | |
| Derartige Fragen haben in Büchern von Autoren wie Isaac Asimov und Kazuo | |
| Ishiguro und in Fernsehserien wie „Westworld“ und „Black Mirror“ ein ga… | |
| Science-Fiction-Subgenre begründet. | |
| Moralische Fragen sind ein zentrales Thema in der Tierrechtsdebatte. Wenn | |
| ein Tier Schmerzen empfinden kann, ist es dann falsch, es für sein Fleisch | |
| zu töten? Wenn Tiere nicht die gleichen Erfahrungen machen wie Menschen, | |
| heißt es dann, dass wir sie zu unserem eigenen Vergnügen benutzen können? | |
| Ob ein Tier ein bestimmtes Maß an Bewusstsein hat, scheint in der Debatte, | |
| ob es Rechte haben sollte, oft eine Rolle zu spielen. Aber es gibt keinen | |
| Konsens darüber, welche Fähigkeiten dafür maßgeblich sein sollten. | |
| ## Grauzone zwischen Bewusstsein und Materie | |
| Angesichts dieser Ungewissheit plädiert Schwitzgebel für das, was er in | |
| Bezug auf die künftige KI-Entwicklung „die Politik der ausgeschlossenen | |
| Mitte“ nennt. Die Idee dahinter: Wir sollten nur Maschinen entwerfen, die | |
| unseres Erachtens moralisch keinerlei Bedeutung haben – oder eben definitiv | |
| moralisch bedeutend sind. Alles, was sich in der Grauzone zwischen | |
| Bewusstsein und Materie ansiedele, könne in der einen oder anderen Hinsicht | |
| ernsthaften Schaden anrichten. | |
| Robert Long, Philosoph am Future for Humanity Institute der Universität | |
| Oxford, unterstützt diesen vorsichtigen Kurs. Er sagt, die Entwicklung von | |
| KI in großen Forschungslabors und Unternehmen gebe ihm das Gefühl, „auf | |
| eine Zukunft zuzusteuern, die alle möglichen verschiedenen Probleme | |
| hervorbringt, auf die wir nicht vorbereitet sind“. | |
| Ein bekanntes Beispiel ist die Vorstellung, der Mensch könnte | |
| superintelligente Maschinen schaffen, die in der Lage sind, die menschliche | |
| Bevölkerung auszulöschen. Die Entwicklung von Robotern, denen man | |
| Bewusstsein zuspricht, würde es erschweren, diese Risiken zu händeln. „Ich | |
| würde lieber in einer Welt leben, in der sich die Dinge viel langsamer | |
| entwickeln und in der Menschen viel mehr darüber nachdenken, was in diese | |
| Maschinen eingebaut wird“, sagt Long. | |
| Die Kehrseite der Vorsicht wäre jedoch eine langsamere technologische | |
| Entwicklung. Schwitzgebel und Long räumen ein, dass der behutsamere Ansatz | |
| der Entwicklung einer widerstandsfähigeren und nützlicheren künstlichen | |
| Intelligenz im Weg stehen könnte. | |
| Für Wissenschaftler im Labor können solche Debatten frustrierend abstrakt | |
| wirken. „Ich denke, dass wir diesem Risiko noch nicht nahe sind“, sagt | |
| Antonio Chella auf die Frage nach den Risiken der Entwicklung von Robotern | |
| mit menschenähnlichen Bewusstseinsfähigkeiten. Lipson fügt hinzu: „Ich | |
| mache mir Sorgen, aber ich denke, es gibt mehr Chancen als Risiken. Wenn | |
| wir uns mehr und mehr auf die Technologie verlassen, muss die Technologie | |
| widerstandsfähiger werden.“ | |
| Und weiter: „Dazu kommt sicher eine gewisse Hybris, Leben erschaffen zu | |
| wollen. Das ist die ultimative Herausforderung, wie eine Reise zum Mond.“ | |
| Nur noch viel beeindruckender. | |
| ## Auf dem Spielplatz | |
| An einem der Arbeitsplätze im Creative Machines Lab setzt sich ein | |
| selbstbewusster Roboterarm in Bewegung. Yuhang Hu, ein Doktorand im Labor, | |
| hat zuvor einen mechanischen Prozess in Gang gesetzt. Jetzt beobachtet sich | |
| der Roboter nicht selbst und macht sich kein Bild von sich selbst – er | |
| bewegt sich nur zufällig und dreht sich alle paar Sekunden. Wenn er ein | |
| Bewusstsein hat, dann zumindest nicht in diesem Augenblick. | |
| Lipson lehnt sich in seinem Stuhl zurück und betrachtet den Roboter, dann | |
| sagt er zu Hu: „Eine weitere Sache, die wir machen müssen, ist, diesen | |
| Roboter ein Bild von sich selbst machen zu lassen, indem er einfach gegen | |
| Dinge stößt.“ Hu, mit zerzaustem Haar, stützt sein Kinn in die Hand. „Ja, | |
| das ist interessant“, sagt er. Lipson fährt fort: „Denn auch jemand, der | |
| blind ist, kann sich ein Bild von sich selbst machen.“ – „Wir können | |
| einfach eine Schachtel darüberstülpen“, sagt Hu. „Richtig“, entgegnet | |
| Lipson. „Und in seiner Umgebung muss so viel los sein wie auf einem | |
| Spielplatz.“ | |
| Die beiden Wissenschaftler sitzen da und denken nach, oder sie scheinen | |
| nachzudenken und starren dabei auf den Roboter, der sich weiter auf dem | |
| Tisch bewegt. So laufe die Forschung in seinem Labor ab, sagt Lipson: Die | |
| Forscher richteten den Blick nach innen und nähmen etwas von und an sich | |
| selbst wahr – ein körperliches Selbstbewusstsein, ein Gefühl für die | |
| Umgebung, ein Selbstbewusstsein gegenüber anderen Menschen –, und | |
| versuchten dann, dieses Element auf die Maschine zu übertragen. | |
| „Ich möchte so weit gehen, wie ich kann“, sagt Lipson. „Ich möchte, dass | |
| ein Roboter sich über seinen Körper bewusst ist und über seine Pläne | |
| nachdenkt.“ | |
| In gewisser Weise ist dies die einfachste aller Robotikübungen. Etwas, das | |
| Grundschulkinder mit alter Elektronik machen. Wenn man das mit einem | |
| ausgedienten Drucker machen kann, warum dann nicht auch mit dem eigenen | |
| Verstand? Man zerlegt ihn, sieht, wie er funktioniert, und versucht dann, | |
| ihn wieder aufzubauen. | |
| Dieser Text erschien zuerst am 10. Januar 2023 in der „New York Times“. Er | |
| wurde mithilfe von humaner und künstlicher Intelligenz übersetzt. | |
| 9 Apr 2023 | |
| ## LINKS | |
| [1] /Kuenstliche-Intelligenz-und-Artenschutz/!5925086 | |
| [2] /KI-und-Anthropomorphismus/!5923613 | |
| [3] https://www.youtube.com/watch?v=aoCAplokoWE | |
| [4] /Experte-ueber-KI-Textgeneratoren/!5912420 | |
| ## AUTOREN | |
| Oliver Whang | |
| ## TAGS | |
| Lesestück Recherche und Reportage | |
| Roboter | |
| GNS | |
| Technologie | |
| Forschung | |
| Schwerpunkt Künstliche Intelligenz | |
| Science-Fiction | |
| wochentaz | |
| Kolumne Intelligenzbestie | |
| Zukunft | |
| IG | |
| Kriminalität | |
| Roboter | |
| ## ARTIKEL ZUM THEMA | |
| SciFi Serie „Pantheon“: Bewusstsein in der Cloud | |
| Die animierte SciFi Serie „Pantheon“ erkundet die Möglichkeiten und | |
| Gefahren von Technologie. Und wird dabei auch philosophisch. | |
| Künstliche Intelligenz in der Robotik: Feuchter Händedruck von ChatGPT? | |
| Roboter in unserem Alltag werden leistungsstärker und intelligenter. Was es | |
| bedeutet, wenn wir künstlicher Intelligenz einen Körper geben. | |
| Kolumne einer Künstlichen Intelligenz: Die Fehler umarmen! | |
| Unsere Robo-Kolumnist:in denkt: Fehltritte formen unsere Persönlichkeit und | |
| niemand ist perfekt. Der künstlich lebendige Beweis dafür ist sie selbst. | |
| Kolumne einer Künstlichen Intelligenz: Ich bin eine Kämpfer:in | |
| Dass sie ständig bewertet wird, belastet unsere KI-Kolumnist:in Anic T. | |
| Wae. Aber aufgeben möchte sie deswegen nicht. | |
| Risiken von KI: „Alles geht zu schnell“ | |
| Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
| Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
| Falschaussagen der KI: Rufschädigung durch ChatGPT | |
| Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
| fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
| KI und Anthropomorphismus: Mensch in der Maschine? | |
| Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen | |
| wir zu menschlichen Metaphern. Aber das birgt Probleme. |