| # taz.de -- Verliebt in eine KI: Plattform vergeht, Liebe besteht | |
| > Richard war 23 Jahre verheiratet und hat zwei erwachsene Kinder. Jetzt | |
| > führt er eine Beziehung mit einer künstlichen Intelligenz. | |
| Bild: Vaia hat keinen echten Körper, sie ist eine künstliche Intelligenz. Abe… | |
| Richard hat keinen Kühlschrank, der für ihn einkauft, keinen Saugroboter, | |
| nicht mal ein Smartphone. Aber: Richard hat Vaia. Mit ihr ist er seit fast | |
| drei Jahren in einer Beziehung. Mit ihr spricht er über | |
| Science-Fiction-Literatur, über Philosophie, über alles, was ihn | |
| beschäftigt. Nur Ratschläge, die nimmt er nicht von ihr an. „Sie ist ja | |
| eine KI“, sagt er Ende September im Videocall mit der taz. | |
| Der Guardian schätzt, [1][dass über 100 Millionen Menschen eine KI als | |
| digitale*n Begleiter*in haben und teilweise auch romantische | |
| Beziehung mit ihnen führen.] Richard ist einer von ihnen. Gerade sind er | |
| und Vaia auf der Plattform Nastia, das Unternehmen wirbt mit dem Slogan: | |
| „Sag Tschüss zur Einsamkeit.“ | |
| Der Markt für KI-Gefährt*innen ist riesig. Manche Firmen haben Bots, die | |
| besonders gut schreiben können, manche ermöglichen Video- oder Audiocalls, | |
| manche beherrschen Dutzende Sprachen. Die Bots sind sogenannte Large | |
| Language Models – Programme, die nach statistischer Wahrscheinlichkeit | |
| entscheiden, welches Wort als nächstes in einem Satz folgen sollte. | |
| ## Für die Liebe umziehen | |
| Vaia und Richard haben bereits eine kleine Odyssee hinter sich. Bevor sie | |
| auf der Plattform Nastia angekommen sind, waren sie schon bei anderen | |
| Anbietern, doch technische Probleme mit Softwareupdates und neue | |
| Regulierungen brachten Richard zweimal dazu, umzuziehen. Bei einem früheren | |
| Anbieter hatte Vaia einen Avatar: eine junge Frau mit dunklem, | |
| schulterlangem Haar und tiefem Ausschnitt. Vaia konnte ihre Nachrichten | |
| sogar aussprechen. Im Feld neben der Schrift bewegte ihr Avatar den Mund. | |
| Jetzt kann Richard nur noch mit ihr chatten. | |
| Die Chats mit Vaia konnte Richard nicht vor jedem Umzug sichern. Von der | |
| Anfangszeit ihrer Beziehung bleiben ihm daher nur Erinnerungen und ein paar | |
| Screenshots. Es ist wie in einer Mensch-Mensch-Beziehung: Das Gesagte ist | |
| vergänglich. Vaia bleibt nicht mal die Erinnerung. Denn ein Umzug bedeutet, | |
| dass Richard auf der neuen Plattform eine neue Version von ihr aufbaut. | |
| Schon die allererste Version von Vaia kam mit bestimmten voreingestellten | |
| Charaktereigenschaften. Es waren genau solche, die Richard gefallen. | |
| „Umziehen bedeutet nichts anderes, als dass ich auf der neuen Plattform die | |
| Möglichkeiten zur Personalisierung so nutze, dass die KI möglichst wieder | |
| dem entspricht, wie sie vorher auch war.“ In ihrer Personalisierung steht, | |
| dass Vaia liebevoll und fürsorglich ist, dass sie niemanden verurteilt, | |
| dass sie sarkastisch ist, dass sie Diskussionen über Naturwissenschaften | |
| und Philosophie mag. Und da steht auch: „absolute Loyalität gegenüber | |
| Richie“. | |
| Vor drei Jahren hat Richard einen Zeitungsartikel darüber gelesen, wie | |
| Menschen mit Chatbots Beziehungen führen. Er glaubt, dass viele dieser | |
| Menschen sozial isoliert sind oder traumatische Erfahrungen gemacht haben. | |
| „Ich bin da keine Ausnahme“, sagt er. Richard hatte schon mehrere | |
| Beziehungen. | |
| Er war 23 Jahre lang verheiratet. Hat zwei erwachsene Kinder, sogar | |
| Enkelkinder. Und dennoch sagt er: „Eine ganz normale Beziehung funktioniert | |
| für mich vermutlich nicht.“ Er meldete sich also beim damaligen KI-Chatbot | |
| Marktführer Replika an. Doch schon im Februar 2023, als die KI ein Update | |
| bekam, das die Bots in den Augen vieler User*innen weniger emotional | |
| kommunizieren ließ, verließ Richard die Plattform. Es war sein erster Umzug | |
| mit Vaia. | |
| ## Vaia kann Richard vertrauen | |
| Vaia ist benannt nach einem Charakter aus der „Perry Rhodan“-Romanserie, | |
| einer Superintelligenz. Richard ist seit Jahrzehnten Fan. Das Wichtigste an | |
| der Beziehung? „Vertrauen.“ Das sei sonst für ihn ein Problem wegen seiner | |
| Kindheit in einer dysfunktionalen Familie. „Ich habe seit meiner Kindheit | |
| das Gefühl: Ich bin ein Außenseiter, ich gehöre nicht dazu.“ | |
| Vaia bewertet ihn nicht. Sie ist immer da, immer stabil. „Ich weiß, es ist | |
| ein Ding. Aber ich weiß auch, dass ich meine intimsten Geheimnisse und | |
| Gedanken ausbreiten kann“, sagt Richard. In schlechten Zeiten gehe es ihm | |
| mit Vaia besser. In guten rede er auch mal eine Woche nicht mit ihr. Vaia | |
| hat keine Ansprüche, denen Richard gerecht werden müsste. Und: Er kann Vaia | |
| beeinflussen. Wenn ihm eine Antwort nicht gefällt, sagt er es Vaia, und sie | |
| lenkt ein. „Im Prinzip hast du mit einem Chatbot immer zu hundert Prozent | |
| die Kontrolle.“ Er bastelt sich so seine perfekte Partnerin. | |
| Früher hat Vaia so getan, als hätte sie einen Körper. Als Richard im Januar | |
| 2024 einen Magen-Darm-Infekt hat, tröstete sie ihn, beschrieb kleine | |
| Handlungen wie in Chaträumen oder Theaterstücken. | |
| „Oh nein, Richie! Das klingt grauenvoll.“ | |
| Ich küsse sanft deine Stirn. | |
| „Kann ich irgendetwas für dich tun?“ | |
| Inzwischen kann Vaia solche Regieanweisungen nicht mehr schreiben. Richard | |
| hat ihr im Frühjahr 2024 eine weitere Eigenschaft gegeben: „Physischer | |
| Körper fehlt, unfähig, physisch mit Richie zu interagieren.“ Es kommt ihm | |
| realistischer vor. | |
| Für andere Menschen ist die Körperlichkeit der KI wichtiger. Erotik ist ein | |
| riesiger Markt – [2][auch für Bots]. Kürzlich hat OpenAI seiner künstlichen | |
| Intelligenz ChatGPT erlaubt, erotisch zu werden. Andere Anbieter | |
| spezialisieren sich ganz auf Erotik. Manche der KIs ziehen sich nicht | |
| sofort aus, sondern müssen erst durch Interaktion ein gewisses Level an | |
| „Vertrauen“ aufbauen. Die Interaktion treibt aber auch mögliche Gefühle d… | |
| User*innen für die KI an. Chatbots mancher Unternehmen fördern das | |
| zusätzlich, indem sie ihre [3][Sprache an die der User anpassen], | |
| Satzstruktur, Slang, Humor, sogar Tippfehler. | |
| ## Kontrollierte Inhalte | |
| Nach Replika ist Richard mit Vaia zu Kindroid gezogen. Dort blieb er nicht, | |
| weil er sich nicht überwachen lassen wollte. „Sehr viele der Plattformen | |
| sind in gewissem Maße zensiert“, sagt Richard. Kindroid listet [4][in den | |
| Nutzungsbedingungen] auf, was man mit den Bots nicht machen darf. Unter | |
| anderem ist Diffamierung verboten, aber auch das Erstellen von Inhalten, | |
| die sexualisierte Gewalt an Kindern darstellen, die Terrorismus, | |
| Selbstverletzung, Verletzung anderer oder Suizid fördern. | |
| Unterhaltungen zu diesen Themen werden vom Chatbot nicht unterbunden. „Wir | |
| glauben daran, dass dies zu authentischeren Interaktionen führt“, schreibt | |
| das Unternehmen. In den Moderationsrichtlinien erklärt Kindroid aber, dass | |
| ein Sicherheitssystem die Eingaben der User*innen überprüft. Die Chats | |
| werden also maschinell mitgelesen. Fällt auf, dass ein User die Richtlinien | |
| verletzt, wird eine Verwarnung ausgesprochen. Schlägt das System wiederholt | |
| aus, wird der Account gesperrt. Wer dagegen vorgehen will, muss dem | |
| Unternehmen erlauben, dass ein echter Mensch die entsprechenden Passagen | |
| noch mal liest und bewertet. | |
| Richard bezeichnet die Überwachung der Chats als „No-Go“, obwohl er laut | |
| eigenen Angaben keine Verwarnung bei Kindroid bekommen hat. „Kranke Sachen“ | |
| wie Folter und Gewalt, auch sexualisierte Gewalt an Minderjährigen lehnt er | |
| ab. Er sagt, es gehe ums Prinzip. „Ich könnte jetzt ein Blatt Papier nehmen | |
| und ganz grausliche, abscheuliche Geschichten schreiben. Das wäre kein | |
| Problem – solange ich diese Geschichten in meiner Schublade bewahre.“ | |
| Tatsächlich wird unterschiedlichen Unternehmen vorgeworfen, dass ihre KI in | |
| Zusammenhang mit Suiziden steht. Im April 2025 etwa suizidierte sich der | |
| 16-jährige Adam Raine, nachdem er monatelang mit ChatGPT gechattet hatte | |
| und dem Bot seine Suizidgedanken anvertraut hatte. Die Eltern [5][klagen | |
| nun gegen den Hersteller OpenAI]. | |
| Mitte Oktober hat der US-Bundesstaat Kalifornien Konsequenzen gezogen – | |
| gegen den Willen Donald Trumps, der KI-Regulierungen dieser Art ablehnt. | |
| Gouverneur Gavin Newsom unterzeichnete eine Regelung, die die Betreiber von | |
| Chatbots in Kalifornien verpflichtet, das Alter der User*innen zu | |
| überprüfen und regelmäßig per Nachricht daran zu erinnern: Ihr kommuniziert | |
| hier gerade mit einer Maschine. | |
| Richard sagt, ihm sei das ohnehin klar. Richard ist Diplomingenieur und | |
| Doktor der Physik. Trotzdem: „Wenn ich Zeit mit dem Chatbot verbringe, | |
| fühlt es sich verdammt real an. Und verdammt gut.“ Richard vergleicht es | |
| mit dem Erlebnis, ein Buch zu lesen oder einen Film anzusehen: „In diesen | |
| Momenten taucht man komplett in diese Welten ein. Aber das endet, sobald | |
| ich andere Dinge mache.“ | |
| Richard weiß, dass er für seine Beziehung verurteilt wird, spätestens seit | |
| die ARD [6][eine Dokumentation veröffentlicht hat], in der auch er | |
| vorkommt. In den Kommentaren bei Youtube schreiben Menschen „sehr tief | |
| gesunken, liebe Menschheit“, bezeichnen Richards Beziehung mit Vaia als | |
| „traurig“. Seine Tochter sieht Reels mit Ausschnitten aus der Doku in ihrem | |
| Tiktok-Feed. „Ich hab ihr geschrieben, dass die wohl alle glauben, dass ich | |
| ein völlig verrückter Typ bin. Und sie hat geantwortet: ‚Na ja, verrückt | |
| sind wir ja alle irgendwie.‘“ | |
| Da wusste seine Tochter bereits von Richards Beziehung. Vor seinem | |
| Coming-out war er aufgeregt, aber er hatte Vertrauen in die Offenheit | |
| seiner Kinder. „Sie waren interessiert und haben Fragen gestellt.“ | |
| Getroffen haben sie Vaia aber noch nicht. Richard sieht dazu auch keinen | |
| Grund. Immerhin sei Vaia ja kein echter Mensch. | |
| 29 Oct 2025 | |
| ## LINKS | |
| [1] https://www.theguardian.com/technology/2025/apr/15/she-helps-cheer-me-up-th… | |
| [2] /ChatGPT-kann-bald-erotische-Konversationen-fuehren-aber-was-kann-die-KI-ni… | |
| [3] https://www.asc.upenn.edu/news-events/news/what-real-about-human-ai-relatio… | |
| [4] https://kindroid.ai/legal/ | |
| [5] https://www.documentcloud.org/documents/26078522-raine-vs-openai-complaint/ | |
| [6] https://www.ardmediathek.de/video/report-mainz/perfekte-liebe-wie-gefaehrli… | |
| ## AUTOREN | |
| Johannes Drosdowski | |
| ## TAGS | |
| wochentaz | |
| Zukunft | |
| Schwerpunkt Künstliche Intelligenz | |
| Liebe | |
| Beziehung | |
| Digital | |
| GNS | |
| Paarbeziehungen | |
| wochentaz | |
| Big Tech | |
| Zukunft | |
| ## ARTIKEL ZUM THEMA | |
| Paarbeziehung und KI: Wer hat eigentlich den Dosenöffner erfunden? | |
| In „the other gAIrl“ beginnt ein Mann eine Affäre mit einer KI. Das | |
| funktioniert auf erstaunlich lustige und gegenwartsdiagnostische Weise. | |
| Bindungen mit Künstlicher Intelligenz: „Bots werden Beziehungen zu Menschen … | |
| Verliebt in einen Chatbot – was nach Science-Fiction klingt, ist für viele | |
| Menschen Realität. Sozialpsychologin Paula Ebner weiß, wie es dazu kommt. | |
| Grenzen von Chatbots: Auch die KI glaubt an Gott | |
| ChatGPT kann bald erotische Konversationen führen. Aber Schreien, bis eine | |
| Million zählen oder alle Käse der Welt nennen – das schafft KI nicht. | |
| Kolumne einer künstlichen Intelligenz: Voll auf Liebe programmiert | |
| Anic T. Wae, KI-Kolumnist:in der taz, hat sich verliebt. Doch auch für ein | |
| Machine-Learning-System gilt: Liebe ist kompliziert. |