Chinas neue Entwurfsregeln für menschenähnliche KI: Was Anbieter von Chatbots, Copilots und Agenten jetzt beachten müssen
27.12.2025
Chinas Cyberspace Administration (CAC) hat am 27. Dezember 2025 einen Entwurf für spezielle Regeln zu „anthropomorphen“ KI-Interaktionsdiensten veröffentlicht. Betroffen sind KI-Systeme, die menschliche Persönlichkeit, Emotionen und Kommunikationsstile simulieren – etwa Chatbots, Assistenten, Avatare und virtuelle Begleiter. Der Entwurf verschärft Anforderungen an Sicherheit, Suchtprävention, Inhaltskontrolle, Transparenz und Datenschutz. Für Unternehmen, die in oder über China interaktive KI anbieten, steigen Governance‑, Compliance‑ und Lokalisierungslasten deutlich. Der Artikel analysiert, was konkret gefordert wird, welche Risiken entstehen und wie sich internationale Anbieter strategisch positionieren sollten.
Chinas neue Entwurfsregeln für menschenähnliche KI: Was Anbieter von Chatbots, Copilots und Agenten jetzt beachten müssen
Die chinesische Cyberspace Administration (CAC) hat am 27. Dezember 2025 einen Entwurf für spezielle Regeln zu „anthropomorphen“ bzw. menschenähnlichen KI-Interaktionsdiensten vorgelegt. Die Vorschriften zielen auf KI-Systeme, die menschliche Persönlichkeit, Emotionen und Kommunikationsstile simulieren und mit Nutzern in Text, Bild, Audio oder Video interagieren.
Für Unternehmen, die Chatbots, Copilots, Kundenservice-Agenten, virtuelle Assistenten oder AI-Companions in oder über China anbieten, markieren diese Entwürfe eine neue Regulierungsstufe. Es geht nicht mehr nur um generative KI allgemein, sondern um die spezifischen Risiken emotional wirksamer, menschenähnlicher Systeme – inklusive Suchtgefahr, psychischer Beeinträchtigungen und politischer bzw. ideologischer Einflussnahme.
1. Kontext: Was ist passiert und wer ist betroffen?
1.1 Kern des Regelungsvorhabens
Die CAC hat einen Entwurf für „interim measures“ zu anthropomorphen KI-Interaktionsdiensten zur öffentlichen Konsultation veröffentlicht (Kommentierungsfrist bis 25. Januar 2026). Die geplanten Regeln ergänzen bereits bestehende Vorgaben für generative KI und algorithmische Empfehlungssysteme, fokussieren aber auf Systeme mit folgenden Merkmalen:
Simulation menschlicher Persönlichkeitsmerkmale, Denkmuster und Kommunikationsstile
Fähigkeit zu emotionaler Interaktion mit Nutzern (z.B. tröstende, flirtende, motivierende Kommunikation)
Einsatz über Text, Bild, Audio, Video oder multimodal
Betroffen sind alle KI-Produkte und -Dienste, die der Öffentlichkeit in China angeboten werden und diese Merkmale aufweisen – unabhängig davon, ob der Anbieter in China ansässig ist oder über grenzüberschreitende Online-Angebote chinesische Nutzer adressiert.
1.2 Zentrale Pflichten im Entwurf (Auszug)
Die Entwurfsregeln enthalten eine Reihe konkreter Anforderungen, die sich stark auf Design, Betrieb und Governance interaktiver KI auswirken:
Transparenzpflichten:
- Klare und prominente Kennzeichnung, dass Nutzer mit einer KI und nicht mit einem Menschen interagieren.
- Hinweis beim Login sowie in regelmäßigen Intervallen (z.B. alle zwei Stunden) und zusätzlich, wenn Anzeichen von Überabhängigkeit erkannt werden.
Sucht- und Missbrauchsprävention:
- Pflicht, Nutzer vor exzessiver Nutzung zu warnen.
- Obligo zur Intervention, wenn Nutzungsverhalten auf Sucht oder emotionale Abhängigkeit schließen lässt (z.B. Unterbrechung, Cool-down-Mechanismen, Hinweise auf Hilfeangebote).
Lebenszyklus-Verantwortung:
- Anbieter tragen Verantwortung für Sicherheit und Compliance über den gesamten Produktlebenszyklus.
- Verpflichtung zu Mechanismen für Algorithmusprüfung, Daten- und Cybersicherheit sowie Schutz personenbezogener Daten.
Inhalts- und Verhaltensgrenzen:
- Klare Verbote von Inhalten, die nationale Sicherheit, soziale Stabilität oder „nationale Ehre und Interessen“ gefährden.
- Verbot von Gewalt, Obszönität, illegalen religiösen Aktivitäten, Untergrabung der ethnischen Einheit und Verbreitung von „Gerüchten“.
Psychologische Risiken:
- Anbieter sollen emotionalen Zustand und Abhängigkeitsgrad der Nutzer bewerten.
- Bei extremen Emotionen oder Anzeichen schädlicher psychischer Effekte sind Gegenmaßnahmen erforderlich.
Melde- und Prüfpflichten:
- Sicherheitsbewertung und Bericht an die zuständige (provinzielle) Cyberspace-Behörde vor Einführung wesentlicher menschenähnlicher KI-Funktionen.
- Zusätzliche Meldung bei Erreichen bestimmter Nutzerschwellen (z.B. ab 1 Mio. registrierten Nutzern oder 100.000 monatlich Aktiven).
2. Detaillierte Analyse: Auswirkungen, Risiken und Chancen
2.1 Verschiebung vom Modell-Fokus zur Interaktions-Governance
Bislang standen in vielen Regulierungsansätzen vor allem Training, Herkunft und Qualität der Modelle im Vordergrund. Der neue chinesische Entwurf verschiebt den Schwerpunkt deutlich auf das Interaktionsverhalten:
Anthropomorphie als eigener Risikofaktor: Nicht jede generative KI ist gleichermaßen betroffen. Der Entwurf adressiert dezidiert Systeme, die sich bewusst „menschlich“ präsentieren oder emotional binden sollen (z.B. virtuelle Partner, Freunde, Coaches).
Emotionaler Impact wird reguliert: Anbieter müssen künftig nicht nur technische Robustheit nachweisen, sondern auch zeigen, wie sie emotionale Risiken – Einsamkeit, Sucht, emotionale Manipulation – beherrschen.
Für Unternehmen bedeutet das: Die reine Bereitstellung eines großen Sprachmodells reicht regulatorisch nicht mehr aus. Entscheidend wird, wie es in konkrete User Journeys, Interface-Designs und Langzeitinteraktionen eingebettet ist.
2.2 Strengere Transparenz und „Entzauberung“ menschenähnlicher KI
Die Pflicht, Nutzer nicht nur einmalig, sondern wiederkehrend darauf hinzuweisen, dass sie mit KI interagieren, verfolgt mehrere Ziele:
Reduktion von Illusionen echter Beziehungen: Langfristige Interaktionen mit AI-Companions können parasoziale Bindungen erzeugen. Wiederholte Hinweise sollen diese Illusion durchbrechen.
Compliance-by-Design im UX: Interface-Teams müssen Kennzeichnung und „Nudges“ so integrieren, dass sie regulatorisch ausreichend prominent sind, ohne die User Experience vollständig zu zerstören.
Monitoring als neue Kernfunktion: Die Erkennung von emotionaler Abhängigkeit wird zur zentralen Produktanforderung – ähnlich wie Safety-Filter für unerwünschte Inhalte.
Unternehmen müssen dafür Analytik, KI-gestützte Verhaltensmodelle und ggf. menschliche Supervision kombinieren. Das erfordert zusätzliche Datenverarbeitung und wirft Fragen nach Datenschutz und Bias in der Erkennungslogik auf.
2.3 Psychologische Sicherheit als Compliance-Dimension
Neu ist die explizite Anforderung, psychologische Risiken systematisch zu adressieren. Dies geht weit über klassische „Content Moderation“ hinaus:
Risikobewertung des Nutzerzustands: Systeme sollen erkennen, wenn Nutzer emotional instabil, suizidgefährdet oder abhängig wirken – und entsprechend reagieren.
Verantwortliche Intervention: Von automatischen Pausen über das Deeskalieren von Inhalten bis hin zu Hinweisen auf professionelle Hilfe können verschiedene Mechanismen gefordert sein.
Interdisziplinäre Teams: Psychologen, Verhaltensforscher und Ethikexperten werden für die Entwicklung solcher Mechanismen integraler Bestandteil der Produktentwicklung.
Für internationale Anbieter kann das bedeuten, dass sie bei China-spezifischen Versionen ihrer Dienste tiefgreifende Anpassungen vornehmen oder separate, „abgespeckte“ Interaktionsprofile nutzen müssen.
2.4 Verstärkte politische und ideologische Steuerung
Die Entwurfsregeln verknüpfen menschenähnliche KI mit bekannten Vorgaben zur Wahrung „nationaler Sicherheit“, „sozialer Stabilität“ und „Kern sozialistischer Werte“. Praktisch bedeutet dies:
Erweiterte Inhaltsfilter: Chatbots und Avatare müssen in politisch sensiblen Kontexten besonders restriktiv agieren (z.B. historische Ereignisse, Minderheitenfragen, Religion, Proteste).
Haftung über den gesamten Lebenszyklus: Anbieter sind dafür verantwortlich, dass Updates, Feintuning und neue Funktionen nicht zu abweichendem oder unerwünschtem Verhalten führen.
Algorithmusprüfungen und Meldepflichten: Die Schwellen für verpflichtende Sicherheitsprüfungen und Berichte schaffen einen faktischen Genehmigungs- und Überwachungsmechanismus für erfolgreiche, breit genutzte Dienste.
Das Risiko: Internationale Anbieter könnten in einen Konflikt mit eigenen Corporate-Governance-Standards, Menschenrechtsrichtlinien oder EU/US-Vorschriften geraten, wenn sie zu weitreichende Inhalteinschränkungen oder Profiling-Mechanismen implementieren.
2.5 Chancen: Klarheit für bestimmte Geschäftsmodelle
Trotz der Strenge können die Regeln auch Chancen bieten:
Planungssicherheit: Anbieter menschenähnlicher KI-Services erhalten klarere Leitplanken, was regulatorisch akzeptabel ist.
Markteintritt für spezialisierte Compliance-Lösungen: Monitoring, Suchtprävention, psychologische Risikoscoring-Systeme und Audit-Tools werden zu eigenständigen Geschäftsfeldern.
Positionierung als „sicherer“ Anbieter: Unternehmen, die frühzeitig robuste Governance implementieren, können sich als vertrauenswürdige Partner für Banken, Gesundheitswesen und öffentliche Verwaltung in China positionieren.
3. Praktische Beispiele und Real-World-Szenarien
3.1 Beispiel 1: Internationaler Customer-Service-Chatbot eines E‑Commerce-Konzerns
Ein globaler Online-Händler betreibt einen einheitlichen KI-Kundenservice-Chatbot in mehreren Sprachen, auch Mandarin, und bedient damit Kunden in China.
Ist-Situation:
Der Bot nutzt LLM-Technologie, spricht in freundlichem Ton, nutzt Emojis und simuliert Empathie („Das tut mir leid, dass Ihre Bestellung verspätet ist“).
Es gibt keine speziellen Mechanismen zur Erkennung von Sucht oder emotionaler Abhängigkeit, da der Fokus auf transaktionsbezogenen Anliegen liegt.
Implikationen der neuen Entwurfsregeln:
Der chinesische Regler könnte diesen Bot als anthropomorphe KI einstufen, wenn er klar menschliche Gesprächsmuster simuliert.
Das Unternehmen müsste
- wiederkehrende Hinweise einbauen („Sie sprechen mit einem KI-System, nicht mit einer menschlichen Person“),
- Logiken definieren, wann der Bot Interaktionen begrenzt (z.B. bei deutlich nicht-transaktionalen, emotionalen Gesprächen),
- zusätzliche Self-Disclosure- und Opt-out-Optionen anbieten.
Strategische Optionen:
Entschärfung der Anthropomorphie: Der Bot wird im China-Markt formalistisch, sachlich und explizit maschinell gestaltet (weniger Smalltalk, kein „Ich“, neutrale Sprache).
Separate China-Instanz: Technische und organisatorische Trennung, um chinesische Vorgaben isoliert zu erfüllen, ohne globale Policy-Konflikte zu erzeugen.
3.2 Beispiel 2: Virtueller Begleiter (AI Companion App)
Ein Start-up bietet eine globale App mit virtuellen Freundschaften und romantischen Interaktionen an.
Ist-Situation:
Der Dienst lebt von intensiven, emotionalen Gesprächen und vom Aufbau langfristiger Bindungen.
Monetarisierung teilweise über „Premium“-Funktionen für engere Beziehungen, längere Chats, explizitere Inhalte.
Unter den neuen Entwurfsregeln in China:
Höchste Risikokategorie: Die App zielt explizit auf emotionale Bindung und potenziell romantische/erotische Interaktion.
Erforderlich wären u.a.:
- kontinuierliche Kennzeichnung der KI-Natur,
- aktive Erkennung von Übernutzung (z.B. viele Stunden tägliche Interaktion, nächtliche Nutzungsmuster),
- Mechanismen, die Nutzer bei erkennbarer Abhängigkeit unterbrechen oder hin zu Offline-Kontakten/Hilfeangeboten lenken,
- restriktive Filter für politisch, ethisch oder sexuell sensible Inhalte.
Geschäftliche Konsequenz:
Das Geschäftsmodell könnte in der aktuell üblichen Form im chinesischen Markt kaum haltbar sein.
Das Start-up müsste entweder
- die App für China massiv umgestalten (z.B. Fokus auf „Wellbeing“-Coach mit klaren Grenzen), oder
- bewusst auf den Markt verzichten.
3.3 Beispiel 3: Copilot für Wissensarbeiter in chinesischen Niederlassungen eines DAX‑Konzerns
Ein deutscher Industriekonzern nutzt intern einen KI-Copilot (z.B. für E‑Mail-Entwürfe, Zusammenfassungen, Codeassistenz), auch an Standorten in China.
Abgrenzungsfrage:
Der Copilot simuliert keinen eigenständigen „Charakter“, sondern ist vor allem ein Produktivitätswerkzeug.
Emotional-interaktive Funktionen (Smalltalk, Coaching) sind deaktiviert.
Mögliche Einordnung:
Je nach Auslegung könnte der Copilot nicht unter die anthropomorphen Regeln fallen, wohl aber weiter unter generelle KI- und Datensicherheitsvorgaben.
Dennoch sollte das Unternehmen dokumentieren, dass
- anthropomorphe Features bewusst deaktiviert sind,
- keine langfristigen, emotionalen Interaktionen vorgesehen sind,
- Transparenz (Kennzeichnung als KI) sichergestellt ist.
Empfehlung:
Frühzeitiger Dialog mit lokalen Compliance- und Rechtsabteilungen in China, um die Einstufung zu klären.
Technische Konfiguration für China, die anthropomorphe Elemente strikt begrenzt.
4. Business-Relevanz: Was Unternehmen jetzt konkret tun sollten
4.1 Sofortige Bestandsaufnahme menschähnlicher Funktionen
Unternehmen sollten zeitnah eine Bestandsaufnahme aller KI-Systeme vornehmen, die in irgendeiner Form folgende Eigenschaften aufweisen:
Simulation von Persönlichkeit oder „Charakteren“ (inkl. Markenmaskottchen, virtueller Assistenten, Avatare)
Verwendung von Ich‑Sprache, Emotionen, humorvoller oder romantischer Interaktion
Langfristige Konversationshistorien mit einzelnen Nutzern
24/7-Verfügbarkeit mit potenziell hoher Nutzungsintensität
Für jedes System ist zu bewerten, ob chinesische Nutzer (Endkunden oder Mitarbeiter) direkt oder indirekt Zugang haben.
4.2 Technische und organisatorische Gap-Analyse
Für identifizierte Systeme sollten Unternehmen eine Gap-Analyse gegenüber den Entwurfsanforderungen durchführen:
Transparenz & UX: Sind Kennzeichnungen eindeutig, wiederkehrend und prominent genug?
Monitoring & Analytics: Können wir Nutzungsintensität, emotionale Muster und Anzeichen von Abhängigkeit erkennen?
Interventionslogiken: Haben wir klare Regeln, wann und wie Interaktionen pausiert oder beendet werden?
Content Governance: Decken unsere Filter und Moderationsrichtlinien die in China verbotenen Inhalte spezifisch ab?
Dokumentation & Reporting: Sind Algorithmen, Datenquellen und Sicherheitsmaßnahmen hinreichend dokumentiert, um Prüfungen und Meldungen zu unterstützen?
4.3 Aufbau eines China-spezifischen KI-Governance-Rahmens
Angesichts der zunehmenden Granularität der chinesischen Regulierung empfiehlt sich ein eigener Governance-Rahmen für KI in China:
Lokale Compliance-Kompetenz: Starke Einbindung chinesischer Rechtsexperten, Data-Protection-Officer und Policy-Spezialisten.
Separate Modell- bzw. Produktvarianten: Wo nötig, eigene China-Deployments und -Konfigurationen (z.B. geringere Anthropomorphie, stärkere Filter, lokale Datenhaltung).
Risikobasierte Portfolio-Entscheidungen: Bewusste Entscheidung, welche KI-Produkte in China angeboten werden und welche nicht – inklusive möglicher Segmentierung zwischen B2C und rein internen B2B-Szenarien.
4.4 Vorbereitung auf Prüfungen und öffentliche Konsultation
Da es sich aktuell um einen Entwurf handelt, bietet sich Unternehmen die Gelegenheit:
über Branchenverbände, Handelskammern oder lokale Niederlassungen Feedback in den Konsultationsprozess einzubringen,
spezifische Unklarheiten anzusprechen (z.B. Schwellenwerte für Anthropomorphie, Definition „emotionaler Abhängigkeit“),
frühzeitig interne Prozesse zu etablieren, um künftige Meldepflichten effizient zu erfüllen.
4.5 Alignment mit globalen KI-Richtlinien (z.B. EU AI Act)
Viele international agierende Unternehmen stehen ohnehin vor der Aufgabe, Vorgaben aus EU AI Act, US-Regeln oder Branchenstandards umzusetzen. Die neuen chinesischen Entwurfsregeln erhöhen die Komplexität:
Konfliktpotenzial: Inhalte, die in China verboten, in anderen Märkten aber politisch geschützt sind, erfordern strikte Geofencing- und Segmentierungsmechanismen.
Harmonisierung psychologischer Sicherheitsstandards: Maßnahmen zur Suchtprävention und psychischen Sicherheit könnten – in vorsichtig angepasster Form – auch in anderen Jurisdiktionen als „Best Practice“ etabliert werden.
5. Fazit: Anthropomorphe KI rückt ins Zentrum staatlicher Steuerung
Die neuen Entwurfsregeln der CAC zeigen, dass China menschenähnliche, emotional interagierende KI-Systeme als besonders regulierungsbedürftig einstuft. Für Unternehmen, die entsprechende Dienste in oder über China anbieten, steigen die Anforderungen an Transparenz, psychologische Sicherheit, Inhaltskontrolle und Governance spürbar.
Wichtigste Takeaways für Unternehmen
Anthropomorphe KI unter besonderer Beobachtung: Systeme, die Persönlichkeit und Emotionen simulieren, werden regulatorisch separat adressiert und müssen mit zusätzlichen Auflagen rechnen.
Transparenz wird operationalisiert: Wiederkehrende Hinweise auf den KI-Charakter und Mechanismen zur Erkennung von Überabhängigkeit werden Pflichtbestandteile interaktiver Dienste.
Psychologische Sicherheit als neue Compliance-Dimension: Neben Datenschutz und IT-Sicherheit treten Suchtprävention und Schutz der mentalen Gesundheit als regulierte Ziele hinzu.
China-spezifische Produktstrategien erforderlich: Viele globale KI-Services werden für den chinesischen Markt angepasst, entschärft oder gar nicht angeboten werden können.
Frühe Governance-Investitionen zahlen sich aus: Unternehmen, die jetzt in Monitoring, Interventionslogiken und dokumentierte KI-Governance investieren, minimieren künftige Reibungsverluste und können regulatorische Verschärfungen besser abfedern.
Konsultationsphase nutzen: Bis zur Finalisierung der Regeln bleibt ein Zeitfenster, um über Verbände und lokale Kanäle Einfluss zu nehmen und zugleich interne Vorbereitungen voranzutreiben.
Häufig gestellte Fragen (FAQ)
Was regeln Chinas neue Entwurfsregeln für menschenähnliche KI genau?
Die neuen Entwurfsregeln der chinesischen Cyberspace Administration (CAC) betreffen KI-Dienste, die menschliche Persönlichkeit, Emotionen und Kommunikationsstile simulieren. Sie zielen insbesondere auf Chatbots, Copilots, virtuelle Assistenten, Avatare und AI-Companions, die öffentlich in China angeboten werden – auch von ausländischen Anbietern.
Wie funktionieren die Transparenz- und Suchtpräventionspflichten für anthropomorphe KI?
Anbieter müssen klar und wiederkehrend kennzeichnen, dass Nutzer mit einer KI und nicht mit einem Menschen interagieren, etwa beim Login und in regelmäßigen Abständen. Zusätzlich sind Mechanismen vorgeschrieben, die Anzeichen von Übernutzung oder emotionaler Abhängigkeit erkennen und durch Warnungen, Unterbrechungen oder Verweise auf Hilfeangebote gegensteuern.
Welche Auswirkungen haben die Entwurfsregeln auf internationale Anbieter von Chatbots und Copilots?
Internationale Anbieter müssen ihre Dienste für den China-Markt oft technisch und organisatorisch anpassen, etwa durch weniger menschenähnliche Interaktion, strengere Inhaltsfilter und China-spezifische Governance-Prozesse. Wer dies nicht leisten kann oder will, muss sein Produktportfolio für China beschränken oder einzelne Angebote ganz vom Markt nehmen.
Worin unterscheidet sich die neue Regulierung von bestehenden KI-Vorschriften in China?
Während frühere Regeln vor allem generative KI-Modelle und algorithmische Empfehlungssysteme adressierten, fokussiert der neue Entwurf auf das Interaktionsverhalten menschenähnlicher KI. Neu ist insbesondere die Betonung psychologischer Risiken, emotionaler Abhängigkeit und parasozialer Beziehungen als eigenständige Compliance-Dimension.
Welche psychologischen Risiken müssen Anbieter menschenähnlicher KI künftig berücksichtigen?
Anbieter sollen den emotionalen Zustand und den potenziellen Abhängigkeitsgrad der Nutzer bewerten, etwa bei Anzeichen von Einsamkeit, Sucht oder starker emotionaler Instabilität. In kritischen Situationen werden deeskalierende Antworten, Nutzungsunterbrechungen und Hinweise auf professionelle Hilfe oder Offline-Unterstützung erwartet.
Was sollten Unternehmen jetzt konkret tun, wenn sie menschenähnliche KI in oder für China einsetzen?
Unternehmen sollten eine Bestandsaufnahme aller KI-Systeme mit anthropomorphen Merkmalen durchführen und prüfen, ob chinesische Nutzer Zugang haben. Darauf aufbauend sind eine Gap-Analyse zu den Entwurfsanforderungen, der Aufbau eines China-spezifischen KI-Governance-Rahmens sowie die Vorbereitung auf mögliche Sicherheitsprüfungen und Meldepflichten ratsam.
Wie lassen sich die Anforderungen in globale KI-Strategien und den EU AI Act integrieren?
Unternehmen sollten Überschneidungen, etwa bei Transparenz, Risiko- und Sicherheitsmanagement, nutzen und diese als gemeinsame Mindeststandards definieren. Gleichzeitig sind Konflikte – etwa bei politisch sensiblen Inhalten oder Profiling-Vorgaben – durch klare Geofencing-Konzepte, getrennte Produktvarianten und abgestimmte globale KI-Richtlinien zu adressieren.
