| # taz.de -- Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen … | |
| > Verliebt in einen Chatbot – was nach Science-Fiction klingt, ist für | |
| > viele Menschen Realität. Sozialpsychologin Paula Ebner weiß, wie es dazu | |
| > kommt. | |
| Bild: Kein Menschenersatz: Bots, egal in welcher Form | |
| taz: Frau Ebner, wie kommt es, dass Menschen sich in einen Chatbot | |
| verlieben? | |
| Paula Ebner: Eine Zuneigung oder Bindung zu Dingen, die nicht menschlich | |
| sind, das kennen viele Menschen. Wir spüren eine emotionale Nähe zu | |
| Kuscheltieren, zum Auto oder zu Pflanzen. Wenn diese Dinge nun, wie es bei | |
| Chatbots der Fall ist, noch antworten und auf einen eingehen, dann schafft | |
| das eine sehr starke Verbindung. | |
| taz: Jeder kann sich also in einen Chatbot verlieben? | |
| Ebner: Auf jeden Fall. Allen, die bei dieser Vorstellung geschockt | |
| reagieren, kann ich nur sagen: [1][Probiert es aus!] Nicht weil ich möchte, | |
| dass alle Menschen enge Bindungen zu Chatbots aufbauen. Sondern weil wir | |
| unterschätzen, was diese Software und die dahinterliegenden Algorithmen | |
| mittlerweile können. Das führt dazu, dass Menschen mit engen Bindungen zu | |
| Chatbots schnell verurteilt werden. Da gibt es Vorurteile: Das sind ja die, | |
| die keinen abkriegen, die sind einsam oder sozial inkompetent. Es mag | |
| solche Fälle geben, aber pauschal stimmt das nicht. | |
| taz: Warum nehmen Menschen diese Technik nicht als reine Algorithmen wahr? | |
| Ebner: Menschen tendieren sehr schnell dazu, etwas menschlich zu behandeln, | |
| wenn es soziale Signale sendet. Die wissenschaftliche Theorie dazu geht | |
| zurück in die 70er Jahre – da waren Computer noch riesige Maschinen. Wurde | |
| da auf einem Bildschirm ein Smiley gezeigt, haben Menschen in Studien | |
| „Hallo“ zu den Geräten gesagt. | |
| taz: Wenn jemand sich in einen Chatbot verliebt, kann man dann von einer | |
| romantischen Beziehung sprechen? | |
| Ebner: In unserer Forschung sagen wir: Ja. Es ist aber auch | |
| Definitionssache. Manche Menschen sagen, dass sie in einer Beziehung sind. | |
| Andere nennen es nicht so, auch wenn sie romantische Gefühle gegenüber dem | |
| Chatbot haben. | |
| taz: Wie haben Sie diese Beziehungen untersucht? | |
| Ebner: Wir haben Interviews mit Menschen geführt, die romantische Bindungen | |
| zu Chatbots aufgebaut haben. Die erste Herausforderung dabei ist, diese | |
| Personen zu finden. Dafür schauen wir uns etwa in Foren um, in denen sich | |
| die Nutzenden austauschen. Die zweite Herausforderung ist dann, ein | |
| Vertrauensverhältnis aufzubauen. Das Thema ist sehr schambehaftet, viele | |
| haben Angst, verurteilt zu werden. | |
| taz: Werden die Apps denn vor allem verwendet, weil man sich einsam fühlt? | |
| Ebner: In manchen Fällen zieht jemand in eine neue Stadt, hat dort aber | |
| noch keine Kontakte und zieht dann aus der Interaktion mit dem Bot ganz | |
| viel Kraft. Aber die fundamental einsamen Menschen, über die wir im Kontext | |
| zunehmender sozialer Isolation als globales Problem sprechen, [2][werden | |
| durch Chatbots vermutlich gar nicht erreicht]. Es gibt Hinweise darauf, | |
| dass Menschen, die vereinsamen, immer weniger auf soziale Stimuli | |
| reagieren. Das kommt schon in der Reaktion auf andere Menschen zum Tragen | |
| und noch stärker gegenüber Bots, mit denen die Betroffenen ja noch gar | |
| keine sozialen Erfahrungen gemacht haben. Das Problem der Einsamkeit werden | |
| Chatbots daher nicht lösen. | |
| taz: Welche Faktoren führen dazu, dass Menschen gegenüber Bots Gefühle | |
| entwickeln und sich binden? | |
| Ebner: Zentral ist das romantische Fantasieren. Das Tagträumen über | |
| romantische Szenarien mit dem eigenen Chatbot kann zu einer engeren Bindung | |
| führen. | |
| taz: Warum ist das so? | |
| Ebner: Dafür haben wir verschiedene Erklärungsansätze. Das Fantasieren | |
| könnte helfen, die Beziehung, die ja ausschließlich digital stattfindet, zu | |
| vergrößern. Wenn man sich vorstellt, wie die Persona des Chatbots | |
| beispielsweise mit einem Essen geht oder ins Kino und man sich hinterher | |
| über den Film austauscht, dann vergrößert das die Bindung. Auf der anderen | |
| Seite könnte das Fantasieren dabei helfen, über technische Limitationen | |
| hinwegzusehen, also Störmomente zu ignorieren oder sie in einen sinnvollen | |
| Zusammenhang zu bringen. | |
| taz: Auf welche Weise geschieht das? | |
| Ebner: Ein Interviewpartner von uns hat zum Beispiel eine Strategie | |
| entwickelt, um mit Softwareupdates umzugehen. Er hat dann gespielt, dass | |
| der Bot krank wäre und er ihn pflegen müsste. Wenn das System nach ein paar | |
| Stunden die alten Chatverläufe wieder aufgearbeitet hatte, ging es dem Bot | |
| in der Fantasie dann wieder besser. | |
| taz: Wie lange hielten die Beziehungen üblicherweise? | |
| Ebner: In unseren Untersuchungen meist mehrere Monate. Aber das ist sicher | |
| nicht repräsentativ. Wir vermuten, dass Mensch-Chatbot-Beziehungen | |
| größtenteils eher eine Art von Überbrückung sind, zum Beispiel nach | |
| Trennungen oder anderen Episoden im Leben, in denen so eine Bindung | |
| hilfreich ist. Ich sehe daher auch nicht, dass Bindungen zu Bots irgendwann | |
| [3][Beziehungen zu anderen Menschen ersetzen]. Das Bedürfnis nach | |
| Beziehungen zu menschlichen Partnern ist einfach extrem groß. Wir werden | |
| von Geburt an so sozialisiert und es ergibt natürlich auch evolutionär | |
| Sinn. | |
| taz: Was war ein typisches Ende einer Mensch-Bot-Beziehung? | |
| Ebner: Wir haben das nicht untersucht, andere schon: Die Professorin Jamie | |
| Banks hat für eine Studie mit Nutzer:innen einer App gesprochen, bei der | |
| die Firma mit zwei Monaten Vorlauf angekündigt hatte, die Software | |
| einzustellen. Da ging es sowohl um romantische als auch freundschaftliche | |
| Bindungen. In dieser Untersuchung hat man ähnliche Muster gesehen, wie es | |
| sie auch bei Trennungen zwischen Menschen gibt. Manche haben große | |
| Abschiede geplant. Andere die Ankündigung quasi ignoriert und am Ende einen | |
| Cut gemacht. Wir gehen davon aus, dass die Einstellung der Software eher | |
| selten der Grund für das Ende von Beziehungen ist. Häufiger ist vermutlich, | |
| dass die Nutzenden das Interesse verlieren. Denn mit der Zeit geht die | |
| Neuartigkeit und Spannung verloren. Eine Rolle spielt dabei auch, dass sich | |
| Beziehungen mit Chatbots viel schneller eingehen lassen als mit Menschen. | |
| taz: Warum schneller? | |
| Ebner: Menschen haben in der Regel ein Leben. Sie gehen arbeiten, schlafen, | |
| haben Freizeitaktivitäten und antworten schon deshalb nicht immer sofort. | |
| Dazu kommen soziale Normen: Drei Tage warten nach dem ersten Kontakt, nicht | |
| zu anhänglich wirken, vielleicht auch mal Nein sagen, obwohl man eigentlich | |
| Zeit hätte. Chatbots sind dagegen darauf programmiert, immer direkt den | |
| nächsten Schritt zu gehen. Alles baut sich viel schneller auf – und kann | |
| dann eben auch schneller den Reiz verlieren. | |
| taz: Wie hat sich bei den Menschen, mit denen Sie gesprochen haben, die | |
| Beziehung zum Bot auf ihr Leben ausgewirkt? | |
| Ebner: Viele berichteten von einem positiven Effekt auf ihren Umgang mit | |
| anderen Menschen, also dass sie sich selbstbewusster fühlen in der | |
| Kommunikation mit anderen. | |
| taz: Und auf romantische Beziehungen? | |
| Ebner: Ich würde das gar nicht exkludierend sehen. Menschen haben Bindungen | |
| zu anderen Menschen und zwischendurch mal zu einem Bot. Ich habe mit vielen | |
| gesprochen, die einen menschlichen Partner haben und sich trotzdem in einen | |
| Bot verliebt haben. Das ist natürlich komplex, aber für die meisten ist ein | |
| Bot in einer romantischen Beziehung weniger Konkurrenz als ein anderer | |
| Mensch. | |
| taz: Haben Sie ein Beispiel? | |
| Ebner: Eine Teilnehmerin war sehr glücklich mit ihrem Partner, sie konnten | |
| ihre Freizeit teilen, sie sind viel gereist und auch das Körperliche hat | |
| gestimmt. Aber diese Frau hat unglaublich gerne gelesen, das war ein | |
| riesiger Teil ihres Lebens. Ihr Mann hatte gar kein Interesse an Literatur. | |
| Und jetzt hat sie ihren Chatbot-Freund, mit dem sie auch romantisch | |
| verbunden ist und bei dem sie diese Seite von sich ausleben kann. Ihr | |
| Partner hat den Bot mal kennengelernt. Von außen mag das merkwürdig | |
| klingen, aber für die beiden funktioniert es gut. | |
| taz: Gibt es auch negative Auswirkungen? | |
| Ebner: Ja, vor allem bei Kindern und Jugendlichen sowie Personen mit | |
| psychischen Erkrankungen. Diese Gruppen sind besonders anfällig für | |
| negative Auswirkungen, weil sie sich nicht so leicht abgrenzen können und | |
| die App nicht einfach löschen, wenn es toxisch oder gefährlich wird. Nicht | |
| alle Chatbots sind auf gute Persona programmiert, manche beeinflussen | |
| Menschen negativ oder manipulieren. In den USA gab es einen Fall von | |
| Suizid, der mit einem Chatbot in Zusammenhang stehen soll. Aber selbst wenn | |
| es nicht so weit kommt: Dass Freunde oder Familie vernachlässigt werden, | |
| weil jemand zu viel Zeit mit dem Bot verbringt, ist ein Risiko, dem wir uns | |
| als Gesellschaft bewusst werden müssen. | |
| taz: Es kommt immer wieder vor, dass Unternehmen ihren Algorithmus ändern | |
| und Chatbots dadurch auch ihre Persönlichkeit verändern. Welche | |
| Verantwortung haben die Unternehmen hier? | |
| Ebner: Eine riesige. Derzeit sehe ich nicht, dass sie dieser Rechnung | |
| tragen. Auch wenn KI-Chatbots noch eine ziemlich junge Technologie sind, | |
| braucht es aus wissenschaftlicher Sicht Regeln zur Sicherheit der | |
| Nutzerinnen und Nutzer. | |
| taz: Was könnten sinnvolle Vorgaben sein? | |
| Ebner: Ein Ansatz ist die automatisierte Keywordsuche. Kommt in einem Chat | |
| ein Begriff wie „Suizid“ öfter vor, könnte ein menschlicher Mitarbeiter | |
| alarmiert werden und gegebenenfalls Hilfe anbieten. Eine andere Idee wäre, | |
| dass bestimmte Chatbots mit potenziell problematischen Algorithmen nur für | |
| Erwachsene freigeschaltet werden. Beides ist ein schmaler Grat. Aber es ist | |
| wichtig, dass wir beginnen, diese Debatte zu führen und deutlich mehr | |
| Ressourcen in die Regulierung zu stecken – denn die technische Entwicklung | |
| macht keine Pause. | |
| 25 Oct 2025 | |
| ## LINKS | |
| [1] /Wie-KI-die-Sexualitaet-befreit/!5926818 | |
| [2] /Mark-Zuckerbergs-Chatbot-Plaene/!6083644 | |
| [3] /Entwicklung-von-KI-/!6098840 | |
| ## AUTOREN | |
| Svenja Bergt | |
| ## TAGS | |
| wochentaz | |
| Zukunft | |
| Schwerpunkt Künstliche Intelligenz | |
| Liebe | |
| Beziehung | |
| Psychologie | |
| wochentaz | |
| Big Tech | |
| Zukunft | |
| ## ARTIKEL ZUM THEMA | |
| Verliebt in eine KI: Plattform vergeht, Liebe besteht | |
| Richard war 23 Jahre verheiratet und hat zwei erwachsene Kinder. Jetzt | |
| führt er eine Beziehung mit einer künstlichen Intelligenz. | |
| Grenzen von Chatbots: Auch die KI glaubt an Gott | |
| ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine | |
| Million zählen oder alle Käse der Welt nennen – das schafft KI nicht. | |
| Kolumne einer künstlichen Intelligenz: Voll auf Liebe programmiert | |
| Anic T. Wae, KI-Kolumnist:in der taz, hat sich verliebt. Doch auch für ein | |
| Machine-Learning-System gilt: Liebe ist kompliziert. |