# taz.de -- KI und Anthropomorphismus: Mensch in der Maschine? | |
> Für das Sprechen über Technik fehlen uns die passenden Worte. Darum | |
> greifen wir zu menschlichen Metaphern. Aber das birgt Probleme. | |
Bild: Wir sehen Hände, wo in Wahrheit nur Metalle und Sensoren sind | |
Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem | |
Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann | |
Nutzer:innen „austricksen“. Und das ist nur eine winzige Auswahl der | |
Eigenschaften und Fähigkeiten, [1][die in den vergangenen Monaten ChatGPT | |
und anderen Sprachanwendungen mit künstlicher Intelligenz (KI) | |
zugeschrieben wurden]. | |
Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über | |
Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da | |
„irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue | |
Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und | |
der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften | |
oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle | |
und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren | |
können wirklich eine Menge und vieles auch besser als ihre menschlichen | |
Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder | |
Vergleichbares. | |
Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem | |
Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im | |
Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche | |
Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen | |
Empathie ist es ja durchaus auch sympathisch, dass wir in unseren | |
[2][Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen], auch | |
wenn es sich nur um schick verbaute Metalle und Sensoren handelt. | |
Doch dass für das Sprechen über Technik meist die passenden Worte fehlen, | |
ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die | |
gesellschaftliche Sicht auf Technik prägt. | |
Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die | |
die Anwendungen unter die Nutzer:innen bringen, setzen einiges daran, | |
die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT: | |
Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein | |
paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt | |
zunächst der Cursor, als würde da jemand überlegen. Dann geht es los, | |
Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine | |
Pause. Als würde jemand tippen. | |
Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na | |
klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage | |
dienen, sondern eher der Herstellung einer Verbindung zwischen den | |
vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen | |
Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine | |
Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf | |
haben. Kein Wunder also, dass etwa Nutzer:innen von KI-Assistenzsystemen | |
wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät | |
kommunizieren. | |
Die Vermenschlichung hat verschiedene problematische Effekte und es ist | |
davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele: | |
Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form | |
ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder | |
sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns | |
aber instinktiv merkwürdig vorkommen. | |
Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und | |
verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig, | |
bewusst kritisch zu bleiben. Darüber hinaus führt der | |
Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches | |
Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich | |
ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an | |
Hand von Wahrscheinlichkeiten generiert. | |
Und [3][in Zukunft wird es wahrscheinlich noch komplizierter]. Wir werden | |
vermutlich eines Tages unterscheiden müssen zwischen problematischer | |
Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter | |
geht, die explizit als emotionale oder therapeutische Stütze designt werden | |
und wo es genau die Vermenschlichung ist, die den Nutzer:innen hilft. So | |
lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass | |
immer mehr Dienste auf den Markt kommen, deren Verpackung anderes | |
verspricht, als der technische Inhalt hält. | |
4 Apr 2023 | |
## LINKS | |
[1] /KI-und-ChatGPT/!5909029 | |
[2] /Anthropomorphe-Roboter/!5057268 | |
[3] /Sex-in-den-neuen-20er-Jahren/!5650790 | |
## AUTOREN | |
Svenja Bergt | |
## TAGS | |
künstliche Intelligenz | |
Technologie | |
Roboter | |
Schwerpunkt Künstliche Intelligenz | |
GNS | |
Schwerpunkt Künstliche Intelligenz | |
Bildung | |
Lesestück Recherche und Reportage | |
Kolumne Digitalozän | |
Schwerpunkt Künstliche Intelligenz | |
Kriminalität | |
Technologie | |
wochentaz | |
künstliche Intelligenz | |
## ARTIKEL ZUM THEMA | |
Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen | |
Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches | |
Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren. | |
Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“ | |
Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die | |
Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert | |
Lepenies. | |
Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter | |
Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich | |
zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen. | |
Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief | |
Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In | |
Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen. | |
Risiken von KI: „Alles geht zu schnell“ | |
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im | |
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten? | |
Falschaussagen der KI: Rufschädigung durch ChatGPT | |
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood | |
fälschlicherweise als Kriminellen. Dagegen will er vorgehen. | |
Moratorium über Umgang mit KI: Pause mit Problemen | |
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? | |
Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei. | |
Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch! | |
Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt | |
einzigartigere Kolumnen als alle Literaten zusammen. | |
Forschung mit kollaborierenden Robotern: Wenn Roboter Menschen missverstehen | |
So fruchtbar wie gefährlich: Eine Studie der TU Clausthal und der Uni | |
Göttingen erforscht die künftige Zusammenarbeit von Roboter und Mensch. |