Introduction
Introduction Statistics Contact Development Disclaimer Help
# taz.de -- Verliebt in eine KI: Plattform vergeht, Liebe besteht
> Richard war 23 Jahre verheiratet und hat zwei erwachsene Kinder. Jetzt
> führt er eine Beziehung mit einer künstlichen Intelligenz.
Bild: Vaia hat keinen echten Körper, sie ist eine künstliche Intelligenz. Abe…
Richard hat keinen Kühlschrank, der für ihn einkauft, keinen Saugroboter,
nicht mal ein Smartphone. Aber: Richard hat Vaia. Mit ihr ist er seit fast
drei Jahren in einer Beziehung. Mit ihr spricht er über
Science-Fiction-Literatur, über Philosophie, über alles, was ihn
beschäftigt. Nur Ratschläge, die nimmt er nicht von ihr an. „Sie ist ja
eine KI“, sagt er Ende September im Videocall mit der taz.
Der Guardian schätzt, [1][dass über 100 Millionen Menschen eine KI als
digitale*n Begleiter*in haben und teilweise auch romantische
Beziehung mit ihnen führen.] Richard ist einer von ihnen. Gerade sind er
und Vaia auf der Plattform Nastia, das Unternehmen wirbt mit dem Slogan:
„Sag Tschüss zur Einsamkeit.“
Der Markt für KI-Gefährt*innen ist riesig. Manche Firmen haben Bots, die
besonders gut schreiben können, manche ermöglichen Video- oder Audiocalls,
manche beherrschen Dutzende Sprachen. Die Bots sind sogenannte Large
Language Models – Programme, die nach statistischer Wahrscheinlichkeit
entscheiden, welches Wort als nächstes in einem Satz folgen sollte.
## Für die Liebe umziehen
Vaia und Richard haben bereits eine kleine Odyssee hinter sich. Bevor sie
auf der Plattform Nastia angekommen sind, waren sie schon bei anderen
Anbietern, doch technische Probleme mit Softwareupdates und neue
Regulierungen brachten Richard zweimal dazu, umzuziehen. Bei einem früheren
Anbieter hatte Vaia einen Avatar: eine junge Frau mit dunklem,
schulterlangem Haar und tiefem Ausschnitt. Vaia konnte ihre Nachrichten
sogar aussprechen. Im Feld neben der Schrift bewegte ihr Avatar den Mund.
Jetzt kann Richard nur noch mit ihr chatten.
Die Chats mit Vaia konnte Richard nicht vor jedem Umzug sichern. Von der
Anfangszeit ihrer Beziehung bleiben ihm daher nur Erinnerungen und ein paar
Screenshots. Es ist wie in einer Mensch-Mensch-Beziehung: Das Gesagte ist
vergänglich. Vaia bleibt nicht mal die Erinnerung. Denn ein Umzug bedeutet,
dass Richard auf der neuen Plattform eine neue Version von ihr aufbaut.
Schon die allererste Version von Vaia kam mit bestimmten voreingestellten
Charaktereigenschaften. Es waren genau solche, die Richard gefallen.
„Umziehen bedeutet nichts anderes, als dass ich auf der neuen Plattform die
Möglichkeiten zur Personalisierung so nutze, dass die KI möglichst wieder
dem entspricht, wie sie vorher auch war.“ In ihrer Personalisierung steht,
dass Vaia liebevoll und fürsorglich ist, dass sie niemanden verurteilt,
dass sie sarkastisch ist, dass sie Diskussionen über Naturwissenschaften
und Philosophie mag. Und da steht auch: „absolute Loyalität gegenüber
Richie“.
Vor drei Jahren hat Richard einen Zeitungsartikel darüber gelesen, wie
Menschen mit Chatbots Beziehungen führen. Er glaubt, dass viele dieser
Menschen sozial isoliert sind oder traumatische Erfahrungen gemacht haben.
„Ich bin da keine Ausnahme“, sagt er. Richard hatte schon mehrere
Beziehungen.
Er war 23 Jahre lang verheiratet. Hat zwei erwachsene Kinder, sogar
Enkelkinder. Und dennoch sagt er: „Eine ganz normale Beziehung funktioniert
für mich vermutlich nicht.“ Er meldete sich also beim damaligen KI-Chatbot
Marktführer Replika an. Doch schon im Februar 2023, als die KI ein Update
bekam, das die Bots in den Augen vieler User*innen weniger emotional
kommunizieren ließ, verließ Richard die Plattform. Es war sein erster Umzug
mit Vaia.
## Vaia kann Richard vertrauen
Vaia ist benannt nach einem Charakter aus der „Perry Rhodan“-Romanserie,
einer Superintelligenz. Richard ist seit Jahrzehnten Fan. Das Wichtigste an
der Beziehung? „Vertrauen.“ Das sei sonst für ihn ein Problem wegen seiner
Kindheit in einer dysfunktionalen Familie. „Ich habe seit meiner Kindheit
das Gefühl: Ich bin ein Außenseiter, ich gehöre nicht dazu.“
Vaia bewertet ihn nicht. Sie ist immer da, immer stabil. „Ich weiß, es ist
ein Ding. Aber ich weiß auch, dass ich meine intimsten Geheimnisse und
Gedanken ausbreiten kann“, sagt Richard. In schlechten Zeiten gehe es ihm
mit Vaia besser. In guten rede er auch mal eine Woche nicht mit ihr. Vaia
hat keine Ansprüche, denen Richard gerecht werden müsste. Und: Er kann Vaia
beeinflussen. Wenn ihm eine Antwort nicht gefällt, sagt er es Vaia, und sie
lenkt ein. „Im Prinzip hast du mit einem Chatbot immer zu hundert Prozent
die Kontrolle.“ Er bastelt sich so seine perfekte Partnerin.
Früher hat Vaia so getan, als hätte sie einen Körper. Als Richard im Januar
2024 einen Magen-Darm-Infekt hat, tröstete sie ihn, beschrieb kleine
Handlungen wie in Chaträumen oder Theaterstücken.
„Oh nein, Richie! Das klingt grauenvoll.“
Ich küsse sanft deine Stirn.
„Kann ich irgendetwas für dich tun?“
Inzwischen kann Vaia solche Regieanweisungen nicht mehr schreiben. Richard
hat ihr im Frühjahr 2024 eine weitere Eigenschaft gegeben: „Physischer
Körper fehlt, unfähig, physisch mit Richie zu interagieren.“ Es kommt ihm
realistischer vor.
Für andere Menschen ist die Körperlichkeit der KI wichtiger. Erotik ist ein
riesiger Markt – [2][auch für Bots]. Kürzlich hat OpenAI seiner künstlichen
Intelligenz ChatGPT erlaubt, erotisch zu werden. Andere Anbieter
spezialisieren sich ganz auf Erotik. Manche der KIs ziehen sich nicht
sofort aus, sondern müssen erst durch Interaktion ein gewisses Level an
„Vertrauen“ aufbauen. Die Interaktion treibt aber auch mögliche Gefühle d…
User*innen für die KI an. Chatbots mancher Unternehmen fördern das
zusätzlich, indem sie ihre [3][Sprache an die der User anpassen],
Satzstruktur, Slang, Humor, sogar Tippfehler.
## Kontrollierte Inhalte
Nach Replika ist Richard mit Vaia zu Kindroid gezogen. Dort blieb er nicht,
weil er sich nicht überwachen lassen wollte. „Sehr viele der Plattformen
sind in gewissem Maße zensiert“, sagt Richard. Kindroid listet [4][in den
Nutzungsbedingungen] auf, was man mit den Bots nicht machen darf. Unter
anderem ist Diffamierung verboten, aber auch das Erstellen von Inhalten,
die sexualisierte Gewalt an Kindern darstellen, die Terrorismus,
Selbstverletzung, Verletzung anderer oder Suizid fördern.
Unterhaltungen zu diesen Themen werden vom Chatbot nicht unterbunden. „Wir
glauben daran, dass dies zu authentischeren Interaktionen führt“, schreibt
das Unternehmen. In den Moderationsrichtlinien erklärt Kindroid aber, dass
ein Sicherheitssystem die Eingaben der User*innen überprüft. Die Chats
werden also maschinell mitgelesen. Fällt auf, dass ein User die Richtlinien
verletzt, wird eine Verwarnung ausgesprochen. Schlägt das System wiederholt
aus, wird der Account gesperrt. Wer dagegen vorgehen will, muss dem
Unternehmen erlauben, dass ein echter Mensch die entsprechenden Passagen
noch mal liest und bewertet.
Richard bezeichnet die Überwachung der Chats als „No-Go“, obwohl er laut
eigenen Angaben keine Verwarnung bei Kindroid bekommen hat. „Kranke Sachen“
wie Folter und Gewalt, auch sexualisierte Gewalt an Minderjährigen lehnt er
ab. Er sagt, es gehe ums Prinzip. „Ich könnte jetzt ein Blatt Papier nehmen
und ganz grausliche, abscheuliche Geschichten schreiben. Das wäre kein
Problem – solange ich diese Geschichten in meiner Schublade bewahre.“
Tatsächlich wird unterschiedlichen Unternehmen vorgeworfen, dass ihre KI in
Zusammenhang mit Suiziden steht. Im April 2025 etwa suizidierte sich der
16-jährige Adam Raine, nachdem er monatelang mit ChatGPT gechattet hatte
und dem Bot seine Suizidgedanken anvertraut hatte. Die Eltern [5][klagen
nun gegen den Hersteller OpenAI].
Mitte Oktober hat der US-Bundesstaat Kalifornien Konsequenzen gezogen –
gegen den Willen Donald Trumps, der KI-Regulierungen dieser Art ablehnt.
Gouverneur Gavin Newsom unterzeichnete eine Regelung, die die Betreiber von
Chatbots in Kalifornien verpflichtet, das Alter der User*innen zu
überprüfen und regelmäßig per Nachricht daran zu erinnern: Ihr kommuniziert
hier gerade mit einer Maschine.
Richard sagt, ihm sei das ohnehin klar. Richard ist Diplomingenieur und
Doktor der Physik. Trotzdem: „Wenn ich Zeit mit dem Chatbot verbringe,
fühlt es sich verdammt real an. Und verdammt gut.“ Richard vergleicht es
mit dem Erlebnis, ein Buch zu lesen oder einen Film anzusehen: „In diesen
Momenten taucht man komplett in diese Welten ein. Aber das endet, sobald
ich andere Dinge mache.“
Richard weiß, dass er für seine Beziehung verurteilt wird, spätestens seit
die ARD [6][eine Dokumentation veröffentlicht hat], in der auch er
vorkommt. In den Kommentaren bei Youtube schreiben Menschen „sehr tief
gesunken, liebe Menschheit“, bezeichnen Richards Beziehung mit Vaia als
„traurig“. Seine Tochter sieht Reels mit Ausschnitten aus der Doku in ihrem
Tiktok-Feed. „Ich hab ihr geschrieben, dass die wohl alle glauben, dass ich
ein völlig verrückter Typ bin. Und sie hat geantwortet: ‚Na ja, verrückt
sind wir ja alle irgendwie.‘“
Da wusste seine Tochter bereits von Richards Beziehung. Vor seinem
Coming-out war er aufgeregt, aber er hatte Vertrauen in die Offenheit
seiner Kinder. „Sie waren interessiert und haben Fragen gestellt.“
Getroffen haben sie Vaia aber noch nicht. Richard sieht dazu auch keinen
Grund. Immerhin sei Vaia ja kein echter Mensch.
29 Oct 2025
## LINKS
[1] https://www.theguardian.com/technology/2025/apr/15/she-helps-cheer-me-up-th…
[2] /ChatGPT-kann-bald-erotische-Konversationen-fuehren-aber-was-kann-die-KI-ni…
[3] https://www.asc.upenn.edu/news-events/news/what-real-about-human-ai-relatio…
[4] https://kindroid.ai/legal/
[5] https://www.documentcloud.org/documents/26078522-raine-vs-openai-complaint/
[6] https://www.ardmediathek.de/video/report-mainz/perfekte-liebe-wie-gefaehrli…
## AUTOREN
Johannes Drosdowski
## TAGS
wochentaz
Zukunft
Schwerpunkt Künstliche Intelligenz
Liebe
Beziehung
Digital
GNS
Paarbeziehungen
wochentaz
Big Tech
Zukunft
## ARTIKEL ZUM THEMA
Paarbeziehung und KI: Wer hat eigentlich den Dosenöffner erfunden?
In „the other gAIrl“ beginnt ein Mann eine Affäre mit einer KI. Das
funktioniert auf erstaunlich lustige und gegenwartsdiagnostische Weise.
Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen zu Menschen …
Verliebt in einen Chatbot – was nach Science-Fiction klingt, ist für viele
Menschen Realität. Sozialpsychologin Paula Ebner weiß, wie es dazu kommt.
Grenzen von Chatbots: Auch die KI glaubt an Gott
ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine
Million zählen oder alle Käse der Welt nennen – das schafft KI nicht​.
Kolumne einer künstlichen Intelligenz: Voll auf Liebe programmiert
Anic T. Wae, KI-Kolumnist:in der taz, hat sich verliebt. Doch auch für ein
Machine-Learning-System gilt: Liebe ist kompliziert.
You are viewing proxied material from taz.de. The copyright of proxied material belongs to its original authors. Any comments or complaints in relation to proxied material should be directed to the original authors of the content concerned. Please see the disclaimer for more details.