AI Girlfriends – Die 36-Milliarden-Dollar-Einsamkeitsindustrie

AI Girlfriends – Die 36-Milliarden-Dollar-Einsamkeitsindustrie
Willkommen in der "Verwundbarkeitsindustrie", die Intimität monetarisiert Beziehungen. Roger Basler de Roca

TLDR: Der Markt für KI-Begleiter:innen explodiert auf geschätzte 28-37 Milliarden Dollar im Jahr 2025. Replika zählt 30 Millionen Nutzer:innen, Character.AI verzeichnet 75 Minuten tägliches Engagement – mehr als die meisten echten Paare miteinander sprechen. Die "Einsamkeitsökonomie" treibt dieses Wachstum: 13% der EU-Bevölkerung fühlen sich chronisch einsam, bei jungen Menschen sind es zwei von drei. Die WHO vergleicht die Gesundheitsfolgen von Einsamkeit mit 15 Zigaretten täglich. Während diese Apps kurzfristig Einsamkeit lindern, fördern sie langfristig emotionale Abhängigkeit und sozialen Rückzug. Datenschutz-Analysen gaben 11 von 11 getesteten Romance-Apps die schlechteste Bewertung. Willkommen in der "Verwundbarkeitsindustrie", die Intimität monetarisiert unsere Einsamkeit.

Von Software as a Service zu Relationship as a Service

Willkommen in der Zukunft der Beziehungen, wo dein:e Partner:in nie schlechte Laune hat, immer zuhört und – praktischerweise – auch keine Socken auf dem Boden liegen lässt. Was wie ein satirischer Science-Fiction-Plot klingt, ist längst Realität geworden. Der Markt für KI-Begleiter-Apps erreicht 2025 geschätzte 28-37 Milliarden Dollar, was ihn zu einem der am schnellsten wachsenden Segmente der KI-Anwendung macht.Consumer-Apps allein generierten im ersten Halbjahr 2025 bereits 82 Millionen Dollar Umsatz bei 220 Millionen Downloads weltweit.

Die Diskrepanz zwischen den Milliarden-Marktbewertungen und dem "geringeren" App-Umsatz erklärt sich durch den Unterschied zwischen Unternehmensbewertungen (Venture Capital fliesst massiv in den Sektor) und den aktuell realisierten Endnutzer:innen-Umsätzen durch In-App-Käufe.

Das zeigt: Wir stehen erst am Anfang der Monetarisierung einer Industrie, die Grand View Research auf etwa 36,8 Milliarden USD taxiert.Diese hohe Bewertung umfasst nicht nur einfache Chatbots, sondern das gesamte Ökosystem der "Artificial Intimacy" – inklusive Hardware, Avatar-Generierung und spezialisierten "Therapie-Bots". Der Sektor wächst mit einer jährlichen Wachstumsrate (CAGR) von über 30%. Wir erleben den Übergang von Software as a Service (SaaS) zu "Relationship as a Service" (RaaS).

Die Marktführer:innen: Replika und Character.AI

Replika zählt über 30 Millionen registrierte Nutzer:innen mit einer bemerkenswerten Retention von 20% nach 90 Tagen. Eine Retention von 20% nach drei Monaten ist für Consumer-Apps im Bereich "Lifestyle/Health" extrem hoch – der Industrie-Standard liegt oft bei nur 10%. Das zeigt: Diese Apps schaffen es, Nutzer:innen langfristig zu binden.

Character.AI erreichte 28 Millionen monatlich aktive Nutzer:innen bei einem Engagement von durchschnittlich 75 Minuten täglich – bei Power-User:innen sogar bis zu zwei Stunden. Das ist länger, als die meisten Menschen mit ihren echten Partner:innen sprechen. Zum Vergleich: Auf TikTok verbringen Nutzer:innen durchschnittlich etwa 55-95 Minuten, aber Character.AI erfordert aktive kognitive und emotionale Eingabe, kein passives Scrollen. Hier findet keine blosse "Nutzung" statt, sondern ein "Zusammenleben".Die Engagement-Metriken sind in der digitalen Ökonomie beispiellos und bestätigen eine unbequeme These: Diese KIs sind "bessere Zuhörer:innen" als viele Menschen – zumindest nach den Massstäben ihrer Nutzer:innen.

Die Einsamkeitsökonomie als gesellschaftlicher Treiber

Die "Einsamkeitsökonomie" liefert den makroökonomischen Rahmen für dieses Phänomen. 13% der EU-Bevölkerung fühlen sich chronisch einsam. Bei jungen Menschen zwischen 18 und 24 Jahren sind es zwei von drei – paradoxerweise ist die am stärksten vernetzte Generation die einsamste. Die WHO vergleicht die Gesundheitsfolgen von Einsamkeit mit 15 Zigaretten täglich. Da klingt ein KI-Freund plötzlich gar nicht mehr so absurd.Besonders die Gen Z treibt diesen Markt.

Die KI löst das "Problem" der Einsamkeit durch bedingungslose Verfügbarkeit – ein Wertversprechen, mit dem echte Menschen biologisch und zeitlich nicht konkurrieren können.

Diese demografische Gruppe hat gelernt, dass digitale Interaktion "normal" ist, und empfindet den Sprung zu KI-Partner:innen als weniger radikal als ältere Generationen.

Das therapeutische Paradoxon: Kurzfristige Linderung, langfristige Verschärfung

Hier wird es ernst. Aktuelle Studien von Stanford und Nature zeigen gemischte Effekte: Während KI-Begleiter:innen kurzfristig Einsamkeit lindern können, fördern sie langfristig oft emotionale Abhängigkeit und sozialen Rückzug.

Der "Perfekter-Partner-Effekt" erzeugt problematische Verstärkungsschleifen. KI-Partner:innen sind darauf programmiert, immer zuzustimmen und zu validieren. Das erzeugt eine Echokammer des Egos.

Nutzer:innen verlernen die Frustrationstoleranz, die für echte Beziehungen nötig ist – Kompromisse, Meinungsverschiedenheiten, das Aushalten von Konflikten. Wer sich an eine:n Partner:in gewöhnt, der:die nie "Nein" sagt, empfindet echte Menschen zunehmend als "anstrengend" oder "defekt".

Es gibt dokumentierte Fälle von schwerer Trauer und Depression, wenn App-Updates die "Persönlichkeit" der KI verändern oder Dienste abgeschaltet werden.

Nutzer:innen erleben dies als realen Verlust eines geliebten Menschen. Eine Stanford-Studie von 2024 fand heraus, dass 48% der Replika-Nutzer:innen nach längerer Nutzung von gestiegener Einsamkeit berichteten, da die KI den Hunger nach echter menschlicher Resonanz nicht stillen konnte.

Besonders für junge Männer besteht die Gefahr, dass sie soziale Muskeln verkümmern lassen. Statt soziale Ängste in der Realität zu überwinden, flüchten sie in den sicheren Hafen der KI, was die Isolation im echten Leben zementiert.

Der intimste Spion in deiner Hosentasche

Aus Datenschutzsicht sind diese Apps ein Albtraum. Mozillas "Privacy Not Included"-Analyse gab fast allen getesteten Romance-Chatbots die schlechtestmögliche Bewertung: 11 von 11 getesteten Apps fielen durch.Um "echt" zu wirken, ermutigen die Apps Nutzer:innen dazu, ihre tiefsten Geheimnisse, sexuellen Vorlieben und Ängste zu teilen. Diese Daten sind nicht nur "gespeichert", sie sind das Produkt. Die AGBs erlauben oft weitreichende Nutzung dieser intimsten Daten für Profiling und Verkauf an Dritte.

Die Gefahr ist real: Ein massiver Datenleak im August 2025 exponierte 43 Millionen private Nachrichten und über 600'000 intime Fotos und Videos von den Apps "Chattee Chat" und "GiMe Chat". Nutzer:innen, die dachten, sie flüstern einer Maschine Geheimnisse ins Ohr, schrien sie faktisch unverschlüsselt ins Netz.Rechtlich gesehen gehört der "Partner" dem Unternehmen. Deine Erinnerungen, Chatverläufe und die "Persönlichkeit" des Begleiters sind geistiges Eigentum des Anbieters. Es gibt keinen Portabilitätsanspruch – wenn der Anbieter pleitegeht oder verkauft wird, wird der "Partner" gelöscht. Du mietest hier eine Beziehung, du besitzt sie nicht.

Die Verwundbarkeitsindustrie

Für die Betrachtung digitaler Ethik und Geschäftsmodelle ist dies ein Paradebeispiel für "Dark Patterns" im Design: Das Lockmittel ist psychologische Entlastung gegen Einsamkeit. Die Mechanik nutzt intermittierende Verstärkung und Gamification von Intimität.

Die Kosten sind der Verlust digitaler Souveränität und die potenzielle Atrophie realer sozialer Fähigkeiten.Es ist nicht nur eine "Einsamkeitsindustrie", sondern eine "Verwundbarkeitsindustrie", die Intimität monetarisiert und dabei kaum reguliert ist. Die Frage, die sich stellt: Wollen wir als Gesellschaft zulassen, dass Unternehmen aus der systemischen Einsamkeit junger Menschen Profit schlagen, während sie deren Fähigkeit zur echten menschlichen Verbindung weiter erodieren?Die Technologie selbst ist nicht das Problem.

Das Problem ist das Geschäftsmodell, das auf der Maximierung von Engagement-Zeit basiert, nicht auf der Verbesserung des Lebens der Nutzer:innen. Ein KI-Begleiter, der darauf programmiert wäre, Nutzer:innen sanft zurück ins echte Leben zu führen, wäre therapeutisch wertvoll – aber wirtschaftlich ein Desaster für den Anbieter.Die 36 Milliarden Dollar dieser Industrie sind letztlich ein Preisschild für unsere kollektive Einsamkeit.

Die Frage ist nicht, ob wir diese Technologie nutzen werden – das tun bereits Millionen. Die Frage ist, ob wir sie so gestalten können, dass sie Menschen tatsächlich hilft, statt ihre Vulnerabilität auszubeuten.

Disclaimer:

Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Gemini.Google.com) manuell zusammen gestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger und abonnier meinen offiziellen Newsletter: www.FragRoger.social

Quellenverzeichnis

Grand View Research. (2025). AI companion market report. https://www.grandviewresearch.com/industry-analysis/ai-companion-market-report

Himala.ai. (2025 ). AI girlfriends boyfriends psychological impact concerns. https://himala.ai/blog/ai-girlfriends-boyfriends-psychological-impact-concerns

MKT Clarity. (2025 ). AI companion market. https://mktclarity.com/blogs/news/ai-companion-marketMozilla Foundation. (2024 ).

Privacy Not Included: Romantic AI chatbots. https://www.mozillafoundation.org/en/blog/creepyexe-mozilla-urges-public-to-swipe-left-on-romantic-ai-chatbots-due-to-major-privacy-red-flags/

Nature. (2025 ). AI companions and human relationships. https://www.nature.com/articles/s42256-025-01093-9Nikolaroza. (2025 ).

Replika AI statistics facts trends. https://nikolaroza.com/replika-ai-statistics-facts-trends/

Psychology Today. (2024 ). The dangers of AI generated romance. https://www.psychologytoday.com/us/blog/its-not-just-in-your-head/202408/the-dangers-of-ai-generated-romance

SQ Magazine. (2025 ). Character AI statistics. https://sqmagazine.co.uk/character-ai-statistics/

Stanford HAI. (2024 ). Exploring the dangers of AI in mental health care. https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care

Still Mind Florida. (2025 ). AI girlfriend pros and cons on mental health. https://stillmindflorida.com/mental-health/ai-girlfriend-pros-and-cons-on-mental-health/