Chinas Verbot von „KI-Verwandten“ in der Altenpflege: Was die neuen Regeln für KI-Companions global bedeuten
29.12.2025
Chinas Cyberspace Administration hat einen Entwurf für neue Regeln vorgelegt, die den Einsatz anthropomorpher KI-Companions deutlich einschränken. Besonders brisant: Dienste, die für ältere Menschen explizit „KI-Verwandte“ simulieren, sollen verboten werden. Der Beitrag analysiert die zentralen Vorgaben, deren Motive und die strategischen Implikationen für internationale Anbieter von Social-, Care- und Gesundheits-KI – inklusive konkreter Handlungsempfehlungen für Produktdesign, Datenpraxis und Marktstrategien.
Chinas Verbot von „KI-Verwandten“ in der Altenpflege: Was die neuen Regeln für KI-Companions global bedeuten
China verschärft seinen Kurs gegenüber emotional interagierenden KI-Systemen. Ein neuer Entwurf der Cyberspace Administration of China (CAC) legt weitreichende Regeln für anthropomorphe KI-Interaktionsdienste vor – also Systeme, die wie Menschen wirken, sprechen und Beziehungen zu Nutzerinnen und Nutzern aufbauen. Besonders auffällig: Für ältere Menschen sollen KI-Dienste, die explizit „Verwandte“ oder spezifische Beziehungsrollen simulieren, künftig verboten sein.
Für Unternehmen, die KI-Companions, Social Bots oder digitale Pflegeassistenten entwickeln, ist dies ein klares Signal: Emotional hoch aufgeladene, menschenähnliche Interaktionen geraten weltweit in den Fokus von Regulatoren. Der Entwurf markiert neue rote Linien – insbesondere dort, wo Einsamkeit, psychische Verwundbarkeit und Pflegebedürftigkeit eine Rolle spielen.
1. Kontext: Was China konkret vorgeschlagen hat
1.1 Der neue Entwurf für anthropomorphe KI-Dienste
Am 27. Dezember 2025 hat die chinesische Cyberspace Administration einen Entwurf für „interim governing rules“ zu anthropomorphen KI-Interaktionsdiensten zur öffentlichen Konsultation gestellt. Erfasst werden KI-Systeme, die:
menschliche Persönlichkeitsmerkmale, Denkweisen und Kommunikationsstile simulieren,
mit Nutzenden emotional interagieren (Text, Audio, Bild, Video),
bei Nutzenden emotionale Bindung oder Abhängigkeit auslösen können.
Damit richtet sich der Entwurf nicht nur an Chatbots, sondern an ein breites Spektrum: von virtuellen Assistenten über KI-Avatare in Social Apps bis hin zu „KI-Freunden“ und Care-Robotern in der Altenpflege.
1.2 Kernelement: Verbot von KI-Verwandten für ältere Menschen
Besonders relevant für den Care-Bereich ist eine spezifische Vorgabe: Anbieter dürfen keine Dienste bereitstellen, die für ältere Nutzerinnen und Nutzer explizit Verwandte oder bestimmte persönliche Beziehungsrollen simulieren. Dazu zählen etwa:
ein KI-System, das sich als verstorbener Ehepartner ausgibt,
ein Avatar, der vorgibt, das weit entfernt lebende Kind oder Enkelkind zu sein,
ein „digitaler Zwilling“ eines echten Angehörigen, der Verhalten, Stimme und Kommunikationsstil imitiert.
Gleichzeitig verpflichtet der Entwurf Anbieter, ältere Nutzende zu schützen, unter anderem durch:
Einrichtung von Notfallkontakten für Seniorinnen und Senioren,
Informationspflichten, wenn Gefahr für Leben, Gesundheit oder Eigentum erkennbar wird,
Bereitstellung von Kanälen für psychologische Unterstützung oder Notfallhilfe.
1.3 Transparenz- und Hinweis-Pflichten
Neben dem speziellen Fokus auf die Altenpflege gilt generell für anthropomorphe KI-Dienste:
Kennzeichnungspflicht: Nutzer müssen deutlich und wiederholt darauf hingewiesen werden, dass sie mit einer KI und nicht mit einem Menschen interagieren – beim Login und in regelmäßigen Abständen.
Warnungen vor Übernutzung: Dienste sollen aktiv vor exzessiver Nutzung warnen.
Intervention bei Abhängigkeit: Zeigen Nutzende Anzeichen emotionaler Abhängigkeit oder Sucht, sollen Anbieter intervenieren und gegebenenfalls Nutzungsgrenzen oder Unterstützungsangebote aktivieren.
1.4 Einbettung in Chinas breitere Regulierungsstrategie
Der Entwurf fügt sich in eine Reihe von Maßnahmen ein, mit denen China erstmals konkret anthropomorphe, emotional interagierende KI adressiert. Bereits bestehende Regelungen zu Generativer KI, Datenschutz und Cybersicherheit werden damit um einen klaren Fokus auf psychische Risiken, ideologische Inhalte und vulnerable Nutzergruppen ergänzt.
Für international agierende Unternehmen ist wichtig: Auch wenn diese Regeln formell nur für den chinesischen Markt gelten, setzen sie einen Referenzrahmen, an dem sich andere Regulierer – zumindest teilweise – orientieren könnten.
2. Detaillierte Analyse: Auswirkungen, Risiken und Chancen
2.1 Warum „KI-Verwandte“ als besonders riskant gelten
Die gezielte Simulation von Familienangehörigen für ältere Menschen gilt aus regulatorischer Sicht aus mehreren Gründen als hochsensibel:
Einsame und verwundbare Zielgruppe
Ältere Menschen, insbesondere alleinlebende oder pflegebedürftige Personen, sind anfälliger für emotionale Abhängigkeit von scheinbar „zuwendenden“ Systemen. Wenn diese zudem vertraute Personen imitieren, kann die emotionale Bindung deutlich stärker werden.
Verzerrte Realitätswahrnehmung
Wenn ein System sich als reales Familienmitglied ausgibt oder dieses täuschend echt nachahmt, verschwimmen für manche Nutzerinnen und Nutzer die Grenzen zwischen Realität und Simulation. Das Risiko von Verwirrung, Fehlentscheidungen oder psychischer Destabilisierung steigt.
Missbrauchsgefahr und Manipulation
Ein „KI-Enkelkind“, das Versicherungsprodukte, Pflegeleistungen oder bestimmte Marken empfiehlt, hätte ein besonders hohes Überzeugungspotential. Hier entsteht ein massives Konfliktfeld zwischen kommerziellen Interessen und Vulnerabilität der Zielgruppe.
Postmortale Persönlichkeitsrechte
Die Simulation verstorbener Angehöriger, inklusive Stimme und Verhaltensmustern, tangiert Fragen des postmortalen Persönlichkeitsschutzes und der Einwilligung von Hinterbliebenen. Für Regulatoren ist das rechtlich und ethisch schwer kontrollierbar.
2.2 Neue Verantwortungspflichten für Anbieter
Der Entwurf verschiebt die Verantwortung deutlich hin zu den Anbietern:
Lebenszyklus-Verantwortung: Unternehmen sollen für Sicherheit und Compliance über den gesamten Produktlebenszyklus hinweg sorgen – von Entwicklung über Betrieb bis zur Außerbetriebnahme.
Algorithmus- und Datensicherheit: Es werden Anforderungen an Algorithmus-Prüfung, Daten- und Informationssicherheit formuliert, inklusive Schutz sensibler Daten von Minderjährigen und älteren Menschen.
Monitoring von emotionalen Zuständen: Anbieter sollen in der Lage sein, emotionale Zustände und Abhängigkeitsgrade ihrer Nutzer in gewissem Rahmen zu erkennen und darauf zu reagieren.
Dies bedeutet in der Praxis: KI-Companions dürfen nicht mehr als rein „neutrale Tools“ verstanden werden. Sie werden vielmehr als Akteure mit potenziell tiefgreifendem Einfluss auf das psychische und soziale Wohlbefinden betrachtet.
2.3 Spannungsfeld Innovation vs. Regulierung
Für Unternehmen entstehen mehrere Spannungsfelder:
Personalisierung vs. Manipulationsverbot: Je stärker KI-Companions personalisiert und emotional anschlussfähig sind, desto näher rücken sie an die regulatorischen roten Linien heran.
Nutzerbindung vs. Abhängigkeitsprävention: Geschäftsmodelle, die auf hoher Verweildauer beruhen (z. B. In-App-Käufe, Abomodelle), kollidieren mit der Pflicht, Übernutzung zu begrenzen und Abhängigkeiten zu verhindern.
Globales Produkt vs. lokaler Regulierungsrahmen: Ein global ausgerollter „KI-Freund“ mit einheitlichem Funktionsumfang lässt sich zunehmend schwer mit stark divergierenden Regulierungsregimen vereinbaren.
2.4 Chancen für vertrauensbasierte Geschäftsmodelle
Trotz aller Einschränkungen eröffnen die neuen Regeln auch Chancen:
Differenzierung über Ethik und Sicherheit: Anbieter, die transparente, sichere und psychologisch verantwortliche Interaktionen bieten, können sich im Markt abheben.
Neue Serviceangebote im Bereich Mental Health: Die Pflicht, Anzeichen psychischer Belastung zu erkennen und Hilfsangebote bereitzustellen, könnte neue Kooperationsmodelle mit Gesundheitsdienstleistern, Telemedizin-Plattformen oder Beratungsstellen begünstigen.
Standardisierung von Transparenz: Klare Vorgaben zur Kennzeichnung von KI-Interaktionen schaffen Planbarkeit und können langfristig Vertrauen bei Nutzerinnen und Nutzern stärken.
3. Praxisbeispiele und Szenarien
3.1 Szenario 1: Europäisches Start-up mit Social Companion im China-Rollout
Ein europäisches Start-up hat einen KI-Companion entwickelt, der einsame Menschen unterstützt – mit täglicher Konversation, Erinnerungen und leichten kognitiven Trainingsaufgaben. In Europa ist das System so konzipiert, dass Nutzer optional Fotos, Audio und Text von Angehörigen hochladen können, um einen „vertrauten“ Kommunikationsstil nachzubilden.
Implikation für China:
Die Funktion, aus echten Angehörigen „KI-Verwandte“ zu generieren, wäre im chinesischen Markt bei älteren Nutzenden unzulässig.
Das Start-up müsste sein Produkt so umgestalten, dass:
- keine spezifischen Beziehungssimulationen (z. B. „deine Tochter“, „dein Enkel“) bei Seniorinnen und Senioren angeboten werden,
- das System deutlich als KI gekennzeichnet bleibt und regelmäßig entsprechende Hinweise einblendet,
- Mechanismen zur Übernutzungs- und Abhängigkeitsprävention implementiert werden (z. B. Pausen, Zeitlimits, Hinweise auf reale soziale Kontakte).
3.2 Szenario 2: Robotik-Anbieter im Pflegeheim-Segment
Ein Robotik-Unternehmen stellt humanoide Roboter für Pflegeheime bereit. Bisher können Angehörige den Roboter individuell „branden“ – mit Stimme, bestimmten Phrasen oder sogar einem 3D-Gesichtsmodell, das an einen verstorbenen Partner erinnert.
Unter den neuen Vorgaben in China:
Die Simulation eines „verstorbenen Partners“ für eine ältere Bewohnerin wäre voraussichtlich nicht mehr zulässig.
Die Roboter müssten klar als Service-Roboter mit generischer Persönlichkeit agieren.
Statt individueller Verwandtensimulation könnte der Fokus auf:
- kognitiver Aktivierung,
- Unterstützung bei der Medikamenteneinnahme,
- körperlicher Aktivierung,
- Vermittlung zu realen Pflegekräften oder Angehörigen,
liegen.
3.3 Szenario 3: Gesundheitsplattform mit KI-basiertem Chat für Senior:innen
Eine digitale Gesundheitsplattform bietet einen Chatbot, der ältere Patientinnen und Patienten an Medikamente erinnert, einfache Fragen beantwortet und an Telemedizin-Termine erinnert. Der Chatbot ist eher sachlich, aber mit empathischem Tonfall.
Anpassungsbedarf:
Sofern der Bot keine konkrete Rolle als Verwandter einnimmt, ist das Risiko eines Verbots gering.
Dennoch sind folgende Punkte relevant:
- Implementierung von Monitoring-Logiken: Erkennen, wenn ein Nutzer immer wieder emotionale Unterstützung sucht, depressive Aussagen macht oder „nur noch mit dem Bot spricht“.
- Aufbau eines Eskalationspfads: Einbindung von Telemedizin, Hotline, Angehörigen oder Pflegepersonal als Notfallkontakte.
- Transparente Hinweise: Wiederkehrende Kommunikation, dass es sich um ein KI-System handelt, das keine ärztliche oder psychotherapeutische Behandlung ersetzt.
4. Geschäftliche Relevanz: Was Unternehmen jetzt tun sollten
4.1 Kurzfristige Schritte für Produkt- und Compliance-Teams
Für alle Unternehmen mit (geplanten) Aktivitäten in China im Bereich Social, Care oder Health AI sollten kurzfristig folgende Maßnahmen priorisiert werden:
Regulatorisches Mapping
- Vollständige Analyse des neuen Entwurfs sowie bestehender KI-, Daten- und Cybersicherheitsregeln in China.
- Identifikation von Konfliktfeldern zwischen aktuellem Produktdesign und zukünftigen Anforderungen, insbesondere bei:
- emotionaler Personalisierung,
- Beziehungssimulationen,
- Nutzungsdauer und Suchtpotenzial.
Produktinventur
- Systematische Erfassung aller Features, die Verwandte, Partner oder spezifische Personenbeziehungen imitieren.
- Klassifikation von Zielgruppen (Alter, Vulnerabilität) und Nutzungskontext (Gesundheit, Freizeit, Pflege).
Risikobewertung
- Bewertung psychologischer Risiken: Kann das System Einsamkeit verstärken, Realitätswahrnehmung verzerren oder emotionale Abhängigkeit fördern?
- Business-Risikoabschätzung: Welche Teile des Angebots wären bei Inkrafttreten der Regeln nicht mehr nutzbar?
4.2 Mittelfristige Anpassung der Produktstrategie
Modulare Produktarchitektur
- Trennung hochgradig anthropomorpher Funktionen von Basiskomponenten.
- Möglichkeit, bestimmte Module (z. B. „Familien-Avatar“) regionenspezifisch zu deaktivieren.
Ethik- und Safety-by-Design
- Integration von Schutzmechanismen bereits im Design: Zeitlimits, Pausen, neutrale Antworten bei sensiblen Themen, klare Grenzen der emotionalen Rolle.
- Schulung von Entwicklungs- und Produktteams in Fragen digitaler Vulnerabilität, insbesondere bei älteren und psychisch belasteten Menschen.
Kooperationen mit Gesundheits- und Sozialakteuren
- Aufbau von Schnittstellen zu Telefonseelsorge, Beratungsstellen, Telemedizin oder lokalen Pflegeleistungen, um Eskalationen bei erkannten Risiken zu ermöglichen.
4.3 Langfristige Positionierung im globalen Regulierungsumfeld
Antizipation ähnlicher Regelungen in anderen Jurisdiktionen
- Auch wenn derzeit wenige Länder so spezifische Regeln für anthropomorphe KI haben, ist es wahrscheinlich, dass Debatten über „KI-Verwandte“, Kinder-Companions oder romantische KI-Beziehungen regulatorisch aufgegriffen werden.
- Ein global anschlussfähiges Compliance-Framework kann Wettbewerbsvorteile bringen.
Unternehmensweite KI-Governance
- Einrichtung von KI-Governance-Gremien, die Produkte mit anthropomorpher Interaktion systematisch prüfen.
- Entwicklung interner Policies zu zulässigen und unzulässigen Beziehungsrollen (z. B. Verbot, reale Personen ohne ausdrückliche Einwilligung zu simulieren).
Transparente Kommunikation nach außen
- Proaktive Kommunikation darüber, wie das Unternehmen mit emotionaler Manipulation, Suchtgefahren und schutzbedürftigen Gruppen umgeht.
- Nutzung von Zertifizierungen oder Audits, wo verfügbar, um Vertrauensvorteile zu schaffen.
5. Fazit: Warum das chinesische Vorgehen ein Weckruf ist
Chinas vorgeschlagene Regeln zu anthropomorphen KI-Interaktionen, insbesondere das Verbot von „KI-Verwandten“ für ältere Menschen, markieren einen Wendepunkt in der Regulierung emotionaler KI-Systeme. Sie machen deutlich:
Die größte Sorge der Regulatoren verschiebt sich von rein inhaltlichen Risiken (Desinformation, Hassrede) hin zu psychischen, sozialen und manipulativen Wirkungen.
Vulnerable Gruppen wie ältere Menschen werden als besonders schutzbedürftig definiert – mit spezifischen Verboten und zusätzlichen Schutz- und Interventionspflichten.
Anbieter von Care- und Social-AI müssen ihre Geschäftsmodelle und Produktarchitektur anpassen, wenn sie weiter global skalieren wollen.
Wer frühzeitig in ethisch robuste, transparente und psychologisch verantwortliche Designs investiert, wird nicht nur regulatorische Risiken reduzieren, sondern sich auch im Wettbewerb differenzieren.
Zentrale Takeaways für Unternehmen
Verbotene Rollen: Simulation von Verwandten oder spezifischen Beziehungen für ältere Menschen wird im chinesischen Entwurf klar untersagt – entsprechende Features müssen für diesen Markt entfernt oder tiefgreifend verändert werden.
Vulnerabilität im Fokus: Regulatoren betrachten einsame, ältere oder psychisch belastete Nutzende als besonders schützenswert – Care- und Social-AI-Produkte benötigen daher besondere Schutzmechanismen.
Transparenzpflichten: Wiederholte Hinweise, dass es sich um KI handelt, sowie Mechanismen gegen Übernutzung und Abhängigkeit werden zur Mindestanforderung.
Neue Governance-Anforderungen: Unternehmen müssen KI-Companions nicht nur technisch, sondern auch psychologisch und ethisch steuern – inklusive Monitoring und Interventionspfaden.
Strategische Chance: Wer Safety- und Ethics-by-Design ernst nimmt und Produkte modular für unterschiedliche Regulierungsregime auslegt, verschafft sich langfristig einen klaren Marktvorteil.
Häufig gestellte Fragen (FAQ)
Was regelt der neue chinesische Entwurf zu anthropomorphen KI-Interaktionsdiensten konkret?
Der Entwurf der Cyberspace Administration of China legt Regeln für KI-Systeme fest, die menschenähnlich auftreten, emotional interagieren und Bindungen zu Nutzerinnen und Nutzern aufbauen können. Er umfasst Chatbots, virtuelle Assistenten, Avatare und Care-Roboter und definiert Transparenzpflichten, Schutzanforderungen für vulnerable Gruppen und Eingriffspflichten bei erkennbarer Abhängigkeit.
Warum werden „KI-Verwandte“ für ältere Menschen in China verboten?
„KI-Verwandte“ gelten als besonders riskant, weil sie die emotionale Verwundbarkeit einsamer und pflegebedürftiger älterer Menschen ausnutzen können. Die täuschend echte Simulation von Angehörigen kann Realitätswahrnehmung verzerren, emotionale Abhängigkeit verstärken und Manipulation etwa zu kommerziellen Zwecken erleichtern.
Welche Auswirkungen haben Chinas Regeln für internationale Anbieter von Care- und Social-KI?
Internationale Anbieter müssen Funktionen, die Verwandte oder enge Beziehungsrollen für Seniorinnen und Senioren simulieren, für den chinesischen Markt entfernen oder stark anpassen. Zugleich steigen Anforderungen an Transparenz, Übernutzungsprävention, Monitoring emotionaler Zustände und an Governance-Strukturen über den gesamten Produktlebenszyklus.
Was ist der Unterschied zwischen einem zulässigen KI-Companion und einem verbotenen „KI-Verwandten“?
Ein zulässiger KI-Companion tritt als generische, klar gekennzeichnete KI-Persona auf, die Unterstützung etwa bei Erinnerung, Aktivierung oder Kommunikation bietet, ohne eine konkrete reale Person oder Familienrolle zu imitieren. Ein verbotener „KI-Verwandter“ gibt sich hingegen explizit als Tochter, Enkel oder verstorbener Partner älterer Nutzer aus oder imitiert diese täuschend echt in Stimme, Verhalten und Kommunikationsstil.
Wie sollten Unternehmen ihre KI-Produkte kurzfristig an die chinesischen Vorgaben anpassen?
Unternehmen sollten eine Bestandsaufnahme aller Funktionen durchführen, die Verwandte oder spezifische Beziehungsrollen simulieren, und diese für ältere Zielgruppen in China deaktivieren. Parallel sind klare KI-Kennzeichnungen, Warnungen vor exzessiver Nutzung, Mechanismen zur Erkennung von Abhängigkeit und Notfall- bzw. Eskalationspfade (z. B. zu Telemedizin oder Angehörigen) zu implementieren.
Welche Chancen ergeben sich aus den strengeren Regeln für KI-Companions?
Strengere Vorgaben eröffnen die Möglichkeit, sich über Ethik, Transparenz und psychologische Sicherheit im Markt zu differenzieren. Anbieter, die Safety- und Ethics-by-Design, Kooperationen mit Gesundheits- und Sozialakteuren sowie modulare Produktarchitekturen früh umsetzen, können regulatorische Risiken reduzieren und sich als vertrauenswürdige Partner positionieren.
Wie können sich Unternehmen strategisch auf mögliche ähnliche Regelungen außerhalb Chinas vorbereiten?
Unternehmen sollten ein global anschlussfähiges KI-Compliance-Framework entwickeln, das vulnerable Gruppen, verbotene Beziehungsrollen und klare Transparenzstandards berücksichtigt. Dazu gehören unternehmensweite KI-Governance-Gremien, interne Richtlinien zur Simulation realer Personen und modulare Features, die sich je nach Regulierungsregime regional aktivieren oder deaktivieren lassen.
