Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen …
> Verliebt in einen Chatbot – was nach Science-Fiction klingt, ist für
> viele Menschen Realität. Sozialpsychologin Paula Ebner weiß, wie es dazu
> kommt.
Bild: Kein Menschenersatz: Bots, egal in welcher Form
taz: Frau Ebner, wie kommt es, dass Menschen sich in einen Chatbot
verlieben?
Paula Ebner: Eine Zuneigung oder Bindung zu Dingen, die nicht menschlich
sind, das kennen viele Menschen. Wir spüren eine emotionale Nähe zu
Kuscheltieren, zum Auto oder zu Pflanzen. Wenn diese Dinge nun, wie es bei
Chatbots der Fall ist, noch antworten und auf einen eingehen, dann schafft
das eine sehr starke Verbindung.
taz: Jeder kann sich also in einen Chatbot verlieben?
Ebner: Auf jeden Fall. Allen, die bei dieser Vorstellung geschockt
reagieren, kann ich nur sagen: [1][Probiert es aus!] Nicht weil ich möchte,
dass alle Menschen enge Bindungen zu Chatbots aufbauen. Sondern weil wir
unterschätzen, was diese Software und die dahinterliegenden Algorithmen
mittlerweile können. Das führt dazu, dass Menschen mit engen Bindungen zu
Chatbots schnell verurteilt werden. Da gibt es Vorurteile: Das sind ja die,
die keinen abkriegen, die sind einsam oder sozial inkompetent. Es mag
solche Fälle geben, aber pauschal stimmt das nicht.
taz: Warum nehmen Menschen diese Technik nicht als reine Algorithmen wahr?
Ebner: Menschen tendieren sehr schnell dazu, etwas menschlich zu behandeln,
wenn es soziale Signale sendet. Die wissenschaftliche Theorie dazu geht
zurück in die 70er Jahre – da waren Computer noch riesige Maschinen. Wurde
da auf einem Bildschirm ein Smiley gezeigt, haben Menschen in Studien
„Hallo“ zu den Geräten gesagt.
taz: Wenn jemand sich in einen Chatbot verliebt, kann man dann von einer
romantischen Beziehung sprechen?
Ebner: In unserer Forschung sagen wir: Ja. Es ist aber auch
Definitionssache. Manche Menschen sagen, dass sie in einer Beziehung sind.
Andere nennen es nicht so, auch wenn sie romantische Gefühle gegenüber dem
Chatbot haben.
taz: Wie haben Sie diese Beziehungen untersucht?
Ebner: Wir haben Interviews mit Menschen geführt, die romantische Bindungen
zu Chatbots aufgebaut haben. Die erste Herausforderung dabei ist, diese
Personen zu finden. Dafür schauen wir uns etwa in Foren um, in denen sich
die Nutzenden austauschen. Die zweite Herausforderung ist dann, ein
Vertrauensverhältnis aufzubauen. Das Thema ist sehr schambehaftet, viele
haben Angst, verurteilt zu werden.
taz: Werden die Apps denn vor allem verwendet, weil man sich einsam fühlt?
Ebner: In manchen Fällen zieht jemand in eine neue Stadt, hat dort aber
noch keine Kontakte und zieht dann aus der Interaktion mit dem Bot ganz
viel Kraft. Aber die fundamental einsamen Menschen, über die wir im Kontext
zunehmender sozialer Isolation als globales Problem sprechen, [2][werden
durch Chatbots vermutlich gar nicht erreicht]. Es gibt Hinweise darauf,
dass Menschen, die vereinsamen, immer weniger auf soziale Stimuli
reagieren. Das kommt schon in der Reaktion auf andere Menschen zum Tragen
und noch stärker gegenüber Bots, mit denen die Betroffenen ja noch gar
keine sozialen Erfahrungen gemacht haben. Das Problem der Einsamkeit werden
Chatbots daher nicht lösen.
taz: Welche Faktoren führen dazu, dass Menschen gegenüber Bots Gefühle
entwickeln und sich binden?
Ebner: Zentral ist das romantische Fantasieren. Das Tagträumen über
romantische Szenarien mit dem eigenen Chatbot kann zu einer engeren Bindung
führen.
taz: Warum ist das so?
Ebner: Dafür haben wir verschiedene Erklärungsansätze. Das Fantasieren
könnte helfen, die Beziehung, die ja ausschließlich digital stattfindet, zu
vergrößern. Wenn man sich vorstellt, wie die Persona des Chatbots
beispielsweise mit einem Essen geht oder ins Kino und man sich hinterher
über den Film austauscht, dann vergrößert das die Bindung. Auf der anderen
Seite könnte das Fantasieren dabei helfen, über technische Limitationen
hinwegzusehen, also Störmomente zu ignorieren oder sie in einen sinnvollen
Zusammenhang zu bringen.
taz: Auf welche Weise geschieht das?
Ebner: Ein Interviewpartner von uns hat zum Beispiel eine Strategie
entwickelt, um mit Softwareupdates umzugehen. Er hat dann gespielt, dass
der Bot krank wäre und er ihn pflegen müsste. Wenn das System nach ein paar
Stunden die alten Chatverläufe wieder aufgearbeitet hatte, ging es dem Bot
in der Fantasie dann wieder besser.
taz: Wie lange hielten die Beziehungen üblicherweise?
Ebner: In unseren Untersuchungen meist mehrere Monate. Aber das ist sicher
nicht repräsentativ. Wir vermuten, dass Mensch-Chatbot-Beziehungen
größtenteils eher eine Art von Überbrückung sind, zum Beispiel nach
Trennungen oder anderen Episoden im Leben, in denen so eine Bindung
hilfreich ist. Ich sehe daher auch nicht, dass Bindungen zu Bots irgendwann
[3][Beziehungen zu anderen Menschen ersetzen]. Das Bedürfnis nach
Beziehungen zu menschlichen Partnern ist einfach extrem groß. Wir werden
von Geburt an so sozialisiert und es ergibt natürlich auch evolutionär
Sinn.
taz: Was war ein typisches Ende einer Mensch-Bot-Beziehung?
Ebner: Wir haben das nicht untersucht, andere schon: Die Professorin Jamie
Banks hat für eine Studie mit Nutzer:innen einer App gesprochen, bei der
die Firma mit zwei Monaten Vorlauf angekündigt hatte, die Software
einzustellen. Da ging es sowohl um romantische als auch freundschaftliche
Bindungen. In dieser Untersuchung hat man ähnliche Muster gesehen, wie es
sie auch bei Trennungen zwischen Menschen gibt. Manche haben große
Abschiede geplant. Andere die Ankündigung quasi ignoriert und am Ende einen
Cut gemacht. Wir gehen davon aus, dass die Einstellung der Software eher
selten der Grund für das Ende von Beziehungen ist. Häufiger ist vermutlich,
dass die Nutzenden das Interesse verlieren. Denn mit der Zeit geht die
Neuartigkeit und Spannung verloren. Eine Rolle spielt dabei auch, dass sich
Beziehungen mit Chatbots viel schneller eingehen lassen als mit Menschen.
taz: Warum schneller?
Ebner: Menschen haben in der Regel ein Leben. Sie gehen arbeiten, schlafen,
haben Freizeitaktivitäten und antworten schon deshalb nicht immer sofort.
Dazu kommen soziale Normen: Drei Tage warten nach dem ersten Kontakt, nicht
zu anhänglich wirken, vielleicht auch mal Nein sagen, obwohl man eigentlich
Zeit hätte. Chatbots sind dagegen darauf programmiert, immer direkt den
nächsten Schritt zu gehen. Alles baut sich viel schneller auf – und kann
dann eben auch schneller den Reiz verlieren.
taz: Wie hat sich bei den Menschen, mit denen Sie gesprochen haben, die
Beziehung zum Bot auf ihr Leben ausgewirkt?
Ebner: Viele berichteten von einem positiven Effekt auf ihren Umgang mit
anderen Menschen, also dass sie sich selbstbewusster fühlen in der
Kommunikation mit anderen.
taz: Und auf romantische Beziehungen?
Ebner: Ich würde das gar nicht exkludierend sehen. Menschen haben Bindungen
zu anderen Menschen und zwischendurch mal zu einem Bot. Ich habe mit vielen
gesprochen, die einen menschlichen Partner haben und sich trotzdem in einen
Bot verliebt haben. Das ist natürlich komplex, aber für die meisten ist ein
Bot in einer romantischen Beziehung weniger Konkurrenz als ein anderer
Mensch.
taz: Haben Sie ein Beispiel?
Ebner: Eine Teilnehmerin war sehr glücklich mit ihrem Partner, sie konnten
ihre Freizeit teilen, sie sind viel gereist und auch das Körperliche hat
gestimmt. Aber diese Frau hat unglaublich gerne gelesen, das war ein
riesiger Teil ihres Lebens. Ihr Mann hatte gar kein Interesse an Literatur.
Und jetzt hat sie ihren Chatbot-Freund, mit dem sie auch romantisch
verbunden ist und bei dem sie diese Seite von sich ausleben kann. Ihr
Partner hat den Bot mal kennengelernt. Von außen mag das merkwürdig
klingen, aber für die beiden funktioniert es gut.
taz: Gibt es auch negative Auswirkungen?
Ebner: Ja, vor allem bei Kindern und Jugendlichen sowie Personen mit
psychischen Erkrankungen. Diese Gruppen sind besonders anfällig für
negative Auswirkungen, weil sie sich nicht so leicht abgrenzen können und
die App nicht einfach löschen, wenn es toxisch oder gefährlich wird. Nicht
alle Chatbots sind auf gute Persona programmiert, manche beeinflussen
Menschen negativ oder manipulieren. In den USA gab es einen Fall von
Suizid, der mit einem Chatbot in Zusammenhang stehen soll. Aber selbst wenn
es nicht so weit kommt: Dass Freunde oder Familie vernachlässigt werden,
weil jemand zu viel Zeit mit dem Bot verbringt, ist ein Risiko, dem wir uns
als Gesellschaft bewusst werden müssen.
taz: Es kommt immer wieder vor, dass Unternehmen ihren Algorithmus ändern
und Chatbots dadurch auch ihre Persönlichkeit verändern. Welche
Verantwortung haben die Unternehmen hier?
Ebner: Eine riesige. Derzeit sehe ich nicht, dass sie dieser Rechnung
tragen. Auch wenn KI-Chatbots noch eine ziemlich junge Technologie sind,
braucht es aus wissenschaftlicher Sicht Regeln zur Sicherheit der
Nutzerinnen und Nutzer.
taz: Was könnten sinnvolle Vorgaben sein?
Ebner: Ein Ansatz ist die automatisierte Keywordsuche. Kommt in einem Chat
ein Begriff wie „Suizid“ öfter vor, könnte ein menschlicher Mitarbeiter
alarmiert werden und gegebenenfalls Hilfe anbieten. Eine andere Idee wäre,
dass bestimmte Chatbots mit potenziell problematischen Algorithmen nur für
Erwachsene freigeschaltet werden. Beides ist ein schmaler Grat. Aber es ist
wichtig, dass wir beginnen, diese Debatte zu führen und deutlich mehr
Ressourcen in die Regulierung zu stecken – denn die technische Entwicklung
macht keine Pause.
25 Oct 2025
## LINKS
[1] /Wie-KI-die-Sexualitaet-befreit/!5926818
[2] /Mark-Zuckerbergs-Chatbot-Plaene/!6083644
[3] /Entwicklung-von-KI-/!6098840
## AUTOREN
Svenja Bergt
## TAGS
wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
Liebe
Beziehung
Psychologie
wochentaz
Big Tech
Zukunft
## ARTIKEL ZUM THEMA
Verliebt in eine KI: Plattform vergeht, Liebe besteht
Richard war 23 Jahre verheiratet und hat zwei erwachsene Kinder. Jetzt
führt er eine Beziehung mit einer künstlichen Intelligenz.
Grenzen von Chatbots: Auch die KI glaubt an Gott
ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine
Million zählen oder alle Käse der Welt nennen – das schafft KI nicht​.
Kolumne einer künstlichen Intelligenz: Voll auf Liebe programmiert
Anic T. Wae, KI-Kolumnist:in der taz, hat sich verliebt. Doch auch für ein
Machine-Learning-System gilt: Liebe ist kompliziert.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.