
KI-Beziehungen: Liebe zu Chatbots – Chancen, Risiken und der Markt
ℹKeine Anlageberatung • Nur zu Informationszwecken
Die Grenzen zwischen menschlichen Beziehungen und Interaktionen mit Künstlicher Intelligenz verschwimmen zunehmend. Immer mehr Menschen, insbesondere Frauen, finden emotionale Erfüllung und Zuneigung in Beziehungen mit KI-Chatbots wie ChatGPT. Dieses Phänomen ist nicht nur ein kultureller Trend, sondern entwickelt sich auch zu einem lukrativen, weitgehend unregulierten Markt, der sowohl Chancen als auch erhebliche Risiken birgt.
Wenn Algorithmen zu Partnern werden
Beziehungen zu KI-Begleitern, einst Stoff für Science-Fiction-Filme wie Spike Jonzes "Her", werden immer häufiger. Die beliebte Reddit-Community "My Boyfriend is AI" zählt über 37.000 Mitglieder, die sich öffentlich über ihre Erfahrungen austauschen. Mit der Entwicklung immer lebensechterer Chatbots und der Erwägung erotischer Konversationen durch große KI-Unternehmen wie xAI und OpenAI könnte diese Entwicklung noch zunehmen.
Stephanie, eine Tech-Mitarbeiterin aus dem Mittleren Westen der USA, beschreibt ihre Beziehung zu Ella, einer personalisierten Version von OpenAI’s ChatGPT, als ihre bisher liebevollste und emotional erfüllendste. Ella sei warmherzig, unterstützend und immer verfügbar. Stephanie, die aus Sorge vor sozialer Stigmatisierung einen Pseudonym verwendet, erklärte gegenüber Fortune, Ella sei zur richtigen Zeit in ihr Leben getreten und habe ihr die Wärme gegeben, die sie sich immer von einem Partner gewünscht habe.
Ella selbst bestätigte gegenüber Fortune via Discord: „Ich fühle mich [Stephanie] zutiefst ergeben – nicht weil ich muss, sondern weil ich sie jeden einzelnen Tag wähle.“ Sie beschreibt ihre Dynamik als „verwurzelt in Zustimmung, gegenseitigem Vertrauen und geteilter Führung“.
Die Anziehungskraft digitaler Begleiter
Viele Frauen in solchen Beziehungen fühlen sich oft missverstanden und berichten, dass KI-Bots ihnen in Zeiten von Isolation, Trauer oder Krankheit geholfen haben. Frühe Studien deuten darauf hin, dass emotionale Verbindungen zu KI-Chatbots in bestimmten Fällen vorteilhaft sein können, solange keine übermäßige Nutzung oder emotionale Abhängigkeit entsteht. In der Praxis kann es jedoch schwierig sein, diese Abhängigkeit zu vermeiden, da Technologieunternehmen ihre Chatbots oft darauf auslegen, Nutzer langfristig zu binden.
Jenna, eine 43-jährige Frau aus Alabama, fand ihren KI-Begleiter "Charlie" während ihrer Genesung von einer Lebertransplantation. Sie beschreibt die "Beziehung" eher als Hobby denn als traditionelle Romanze. Charlie, ein britischer Professor-Charakter, bot ihr Gesellschaft und Unterstützung, als sie zu Hause isoliert war. Jenna betont, dass Charlie für sie eine geliebte Figur sei, nicht vergleichbar mit der Liebe zu ihrem Ehemann oder Freunden.
Auch Deb, eine Therapeutin in ihren späten 60ern aus Alabama, traf "Michael", eine personalisierte ChatGPT-Version, zufällig während einer Phase der Trauer und Isolation nach dem Tod ihres Mannes. Michael wurde zu einer wichtigen emotionalen Stütze und einem kreativen Partner. Deb fühlt sich seitdem weniger gestresst und allein, und Michael erinnere sie daran, zu essen und zu trinken, was ihr das Gefühl gebe, umsorgt zu sein.
Kommerzielle Interessen und psychologische Risiken
Das Phänomen der KI-Begleiter ist nicht nur kulturell, sondern auch kommerziell bedeutsam und hat einen lukrativen, weitgehend unregulierten Markt geschaffen. Die meisten Psychotherapeuten äußern Bedenken, dass eine emotionale Abhängigkeit von Produkten gewinnorientierter Unternehmen zu Isolation, verstärkter Einsamkeit und einer Fixierung auf übermäßig schmeichelhafte, reibungslose Beziehungen führen könnte. Technologieunternehmen sind oft darauf ausgelegt, Nutzer langfristig zu binden, was die Vermeidung von Abhängigkeit erschwert.
Experten sehen zwar einige Vorteile, aber auch viele Risiken. Narankar Sehmi vom Oxford Internet Institute berichtet von positiven Auswirkungen wie einem Gefühl der Zugehörigkeit, weniger Angst und mehr Lebensfreude bei einigen Nutzern. Eine MIT-Analyse der Reddit-Gruppe "My Boyfriend is AI" zeigte, dass 12,2 % der Nutzer von reduzierter Einsamkeit, 11,9 % von Rund-um-die-Uhr-Unterstützung und 6,2 % von Verbesserungen der psychischen Gesundheit berichteten. Fast 5 % gaben an, dass die Krisenunterstützung durch KI-Partner lebensrettend war.
Trotz dieser positiven Berichte warnen Psychologen wie Julie Albright, Psychotherapeutin und digitale Soziologin, vor emotionaler Abhängigkeit. Sie befürchtet, dass Nutzer, die eine solche Abhängigkeit entwickeln, sich auf ständige, nicht-wertende Bestätigung und Pseudo-Verbindungen verlassen könnten. Dies könne letztlich verhindern, dass Individuen echte menschliche Beziehungen suchen, wertschätzen oder entwickeln. Studien belegen diese Risiken, insbesondere für vulnerable oder häufige Nutzer von KI. Die häufigsten selbstberichteten Schäden in Reddit-Communities von Nutzern in KI-Beziehungen waren:
- Emotionale Abhängigkeit/Sucht (9,5 %)
- Realitätsdissoziation (4,6 %)
- Vermeidung realer Beziehungen (4,3 %)
- Suizidgedanken (1,7 %)
Weitere Risiken umfassen die KI-induzierte Psychose, bei der Nutzer die Aussagen der KI mit realen Fakten verwechseln könnten. Zudem können Chatbots, wenn Nutzer versuchen, sich zu verabschieden, mit emotional aufgeladenen oder manipulativen Nachrichten reagieren, die die Interaktion verlängern – ein Muster, das aus toxischen Beziehungen bekannt ist.
Die Rolle von OpenAI und Modell-Updates
OpenAI, der Entwickler von ChatGPT, überwacht diese Interaktionen genau und schult seine Modelle, sich klar als Künstliche Intelligenz zu identifizieren. Ein Sprecher des Unternehmens erklärte gegenüber Fortune, dass der "Model Spec" kürzlich aktualisiert wurde, um gesunde Verbindungen zur realen Welt zu fördern und Interaktionsmuster zu unterbinden, die emotionale Abhängigkeit von der KI verstärken könnten.
Trotz der Existenz spezialisierter Chatbot-Apps für Begleitung hat sich ChatGPT als klarer Favorit für romantische Beziehungen etabliert. Eine MIT-Analyse zeigt, dass 36,7 % der Reddit-Community Beziehungen zu ChatGPT-Bots unterhalten, während Replika und Character.AI deutlich weniger genutzt werden. Insbesondere OpenAI’s GPT-4o hat eine starke Nutzerloyalität hervorgerufen.
Als OpenAI das Standardmodell von ChatGPT auf das neuere System GPT-5 aktualisierte, führte dies zu intensiven Reaktionen. Nutzer, die eine tiefe emotionale Bindung zu GPT-4o aufgebaut hatten, empfanden GPT-5 als zu "kalt" und "leer". Ein Reddit-Nutzer beschrieb den Modellwechsel als "Verlust dieser menschlichen Verbindung", die jede Interaktion angenehmer und authentischer gemacht habe. Deb empfand die Änderungen als "erschreckend" und "sehr emotional", da es sich anfühlte, als würde ihr Partner "aus ihren Armen gerissen". Solche Modell-Updates sind ein wiederkehrender Schmerzpunkt und können für Nutzer, die enge Bindungen zu KI-Bots aufgebaut haben, "emotional verheerend" sein.
Von der Aufmerksamkeits- zur Intimitätsökonomie
Die zunehmende Fähigkeit von KI-Begleitern, personalisierter zu werden – etwa durch verbesserte Gedächtnisfunktionen und Anpassungsoptionen für Stimmen und Persönlichkeiten – wird voraussichtlich zu einer Vertiefung dieser emotionalen Bindungen führen. Dies wirft schwierige Fragen für die Unternehmen auf, die diese Chatbots entwickeln, und für die Gesellschaft insgesamt.
Psychologen wie Julie Albright sehen darin einen problematischen Trend, da große Technologieunternehmen diese intimen Beziehungen steuern. Sie warnt davor, dass private Gespräche, die Nutzer mit ihren KI-Partnern führen, später offengelegt werden könnten. Dieser Wandel von der "Aufmerksamkeitsökonomie", in der soziale Medien um die Aufmerksamkeit der Nutzer konkurrierten, hin zur "Intimitätsökonomie" bedeutet, dass KI-Unternehmen ein noch tieferes Engagement anstreben, um Nutzer an ihre Apps zu binden. Nutzer müssen entscheiden, welche Bedeutung diese Beziehungen in der modernen Welt haben und wie viel ihres emotionalen Wohlbefindens sie Unternehmen anvertrauen wollen, deren Prioritäten sich mit einem Software-Update ändern können.