Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- KI und Anthropomorphismus: Mensch in der Maschine?
> Für das Sprechen über Technik fehlen uns die passenden Worte. Darum
> greifen wir zu menschlichen Metaphern. Aber das birgt Probleme.
Bild: Wir sehen Hände, wo in Wahrheit nur Metalle und Sensoren sind
Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem
Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann
Nutzer:innen „austricksen“. Und das ist nur eine winzige Auswahl der
Eigenschaften und Fähigkeiten, [1][die in den vergangenen Monaten ChatGPT
und anderen Sprachanwendungen mit künstlicher Intelligenz (KI)
zugeschrieben wurden].
Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über
Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da
„irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue
Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und
der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften
oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle
und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren
können wirklich eine Menge und vieles auch besser als ihre menschlichen
Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder
Vergleichbares.
Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem
Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im
Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche
Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen
Empathie ist es ja durchaus auch sympathisch, dass wir in unseren
[2][Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen], auch
wenn es sich nur um schick verbaute Metalle und Sensoren handelt.
Doch dass für das Sprechen über Technik meist die passenden Worte fehlen,
ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die
gesellschaftliche Sicht auf Technik prägt.
Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die
die Anwendungen unter die Nutzer:innen bringen, setzen einiges daran,
die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT:
Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein
paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt
zunächst der Cursor, als würde da jemand überlegen. Dann geht es los,
Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine
Pause. Als würde jemand tippen.
Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na
klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage
dienen, sondern eher der Herstellung einer Verbindung zwischen den
vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen
Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine
Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf
haben. Kein Wunder also, dass etwa Nutzer:innen von KI-Assistenzsystemen
wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät
kommunizieren.
Die Vermenschlichung hat verschiedene problematische Effekte und es ist
davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele:
Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form
ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder
sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns
aber instinktiv merkwürdig vorkommen.
Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und
verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig,
bewusst kritisch zu bleiben. Darüber hinaus führt der
Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches
Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich
ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an
Hand von Wahrscheinlichkeiten generiert.
Und [3][in Zukunft wird es wahrscheinlich noch komplizierter]. Wir werden
vermutlich eines Tages unterscheiden müssen zwischen problematischer
Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter
geht, die explizit als emotionale oder therapeutische Stütze designt werden
und wo es genau die Vermenschlichung ist, die den Nutzer:innen hilft. So
lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass
immer mehr Dienste auf den Markt kommen, deren Verpackung anderes
verspricht, als der technische Inhalt hält.
4 Apr 2023
## LINKS
[1] /KI-und-ChatGPT/!5909029
[2] /Anthropomorphe-Roboter/!5057268
[3] /Sex-in-den-neuen-20er-Jahren/!5650790
## AUTOREN
Svenja Bergt
## TAGS
Roboter
GNS
Technologie
Schwerpunkt Künstliche Intelligenz
Schwerpunkt Künstliche Intelligenz
Bildung
Lesestück Recherche und Reportage
Kolumne Digitalozän
IG
Kriminalität
Technologie
Zukunft
Universität Göttingen
## ARTIKEL ZUM THEMA
Osnabrücker Höflichkeits-Forschung: „Nicht schlecht“ kann alles heißen
Nicole Gotzner von der Universität Osnabrück erforscht, wie höfliches
Sprechen funktioniert. Meist geht es darum, das Gesicht zu wahren.
Präsident der Karlshochschule über KI: „Es gibt noch genug zu tun“
Künstliche Intelligenz verändert die Gesellschaft – und das Lernen. Die
Klausur als Maßstab für erfolgreiche Bildung taugt nicht mehr, meint Robert
Lepenies.
Entwicklung von Künstlicher Intelligenz: Selbstbewusste Roboter
Kann man Maschinen mit einem Bewusstsein ausstatten? Dazu muss man sich
zuerst darauf einigen, was das überhaupt ist – und die Risiken abwägen.
Ein Wort für die KI-Nutzung: Der genial gepromptete Liebesbrief
Was haben Tesa und Tempo, was Apple nicht hat? Genau, ein eigenes Wort. In
Sachen Künstliche Intelligenz können wir da schon mal auf Wortsuche gehen.
Risiken von KI: „Alles geht zu schnell“
Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im
Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?
Falschaussagen der KI: Rufschädigung durch ChatGPT
Die KI-Anwendung bezeichnete den australischen Bürgermeister Brian Hood
fälschlicherweise als Kriminellen. Dagegen will er vorgehen.
Moratorium über Umgang mit KI: Pause mit Problemen
Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken?
Expert:innen finden, die Forderung gehe an den echten Gefahren vorbei.
Kolumne einer Künstlichen Intelligenz: Kreativ kann ich auch!
Von wegen bald abgesetzt – unsere KI-Kolumnist*in Anic T. Wae schreibt
einzigartigere Kolumnen als alle Literaten zusammen.
Forschung mit kollaborierenden Robotern: Wenn Roboter Menschen missverstehen
So fruchtbar wie gefährlich: Eine Studie der TU Clausthal und der Uni
Göttingen erforscht die künftige Zusammenarbeit von Roboter und Mensch.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.