| # taz.de -- KI und Anthropomorphismus: Mensch in der Maschine? | |
| > Für das Sprechen über Technik fehlen uns die passenden Worte. Darum | |
| > greifen wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
| Bild: Wir sehen Hände, wo in Wahrheit nur Metalle und Sensoren sind | |
| Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem | |
| Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann | |
| Nutzer:innen „austricksen“. Und das ist nur eine winzige Auswahl der | |
| Eigenschaften und Fähigkeiten, [1][die in den vergangenen Monaten ChatGPT | |
| und anderen Sprachanwendungen mit künstlicher Intelligenz (KI) | |
| zugeschrieben wurden]. | |
| Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über | |
| Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da | |
| „irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue | |
| Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und | |
| der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften | |
| oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle | |
| und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren | |
| können wirklich eine Menge und vieles auch besser als ihre menschlichen | |
| Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder | |
| Vergleichbares. | |
| Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem | |
| Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im | |
| Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche | |
| Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen | |
| Empathie ist es ja durchaus auch sympathisch, dass wir in unseren | |
| [2][Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen], auch | |
| wenn es sich nur um schick verbaute Metalle und Sensoren handelt. | |
| Doch dass für das Sprechen über Technik meist die passenden Worte fehlen, | |
| ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die | |
| gesellschaftliche Sicht auf Technik prägt. | |
| Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die | |
| die Anwendungen unter die Nutzer:innen bringen, setzen einiges daran, | |
| die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT: | |
| Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein | |
| paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt | |
| zunächst der Cursor, als würde da jemand überlegen. Dann geht es los, | |
| Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine | |
| Pause. Als würde jemand tippen. | |
| Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na | |
| klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage | |
| dienen, sondern eher der Herstellung einer Verbindung zwischen den | |
| vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen | |
| Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine | |
| Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf | |
| haben. Kein Wunder also, dass etwa Nutzer:innen von KI-Assistenzsystemen | |
| wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät | |
| kommunizieren. | |
| Die Vermenschlichung hat verschiedene problematische Effekte und es ist | |
| davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele: | |
| Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form | |
| ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder | |
| sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns | |
| aber instinktiv merkwürdig vorkommen. | |
| Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und | |
| verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig, | |
| bewusst kritisch zu bleiben. Darüber hinaus führt der | |
| Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches | |
| Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich | |
| ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an | |
| Hand von Wahrscheinlichkeiten generiert. | |
| Und [3][in Zukunft wird es wahrscheinlich noch komplizierter]. Wir werden | |
| vermutlich eines Tages unterscheiden müssen zwischen problematischer | |
| Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter | |
| geht, die explizit als emotionale oder therapeutische Stütze designt werden | |
| und wo es genau die Vermenschlichung ist, die den Nutzer:innen hilft. So | |
| lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass | |
| immer mehr Dienste auf den Markt kommen, deren Verpackung anderes | |
| verspricht, als der technische Inhalt hält. | |
| 4 Apr 2023 | |
| ## LINKS | |
| [1] /KI-und-ChatGPT/!5909029 | |
| [2] /Anthropomorphe-Roboter/!5057268 | |
| [3] /Sex-in-den-neuen-20er-Jahren/!5650790 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| Roboter | |
| GNS | |
| Technologie | |
| Schwerpunkt Künstliche Intelligenz | |
| Schwerpunkt Künstliche Intelligenz | |
| Bildung | |
| Lesestück Recherche und Reportage | |
| Kolumne Digitalozän | |
| IG | |
| Kriminalität | |
| Technologie | |
| Zukunft | |
| Universität Göttingen | |
| ## ARTIKEL ZUM THEMA | |
| Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen | |
| Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches | |
| Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren. | |
| Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“ | |
| Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
| Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert | |
| Lepenies. | |
| Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
| Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
| zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
| Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief | |
| Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In | |
| Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen. | |
| Risiken von KI: „Alles geht zu schnell“ | |
| Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
| Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
| Falschaussagen der KI: Rufschädigung durch ChatGPT | |
| Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
| fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
| Moratorium über Umgang mit KI: Pause mit Problemen | |
| Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? | |
| Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei. | |
| Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch! | |
| Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt | |
| einzigartigere Kolumnen als alle Literaten zusammen. | |
| Forschung mit kollaborierenden Robotern: Wenn Roboter Menschen missverstehen | |
| So fruchtbar wie gefährlich: Eine Studie der TU Clausthal und der Uni | |
| Göttingen erforscht die künftige Zusammenarbeit von Roboter und Mensch. |