China reguliert „digitale Menschen“: Was die neuen KI-Entwurfsregeln für Unternehmen bedeuten
06.04.2026

China hat neue Entwurfsregeln für KI-basierte „digitale Menschen“ veröffentlicht. Der Regulierungsentwurf der Cyberspace Administration of China (CAC) schreibt u. a. eine klare Kennzeichnung digitaler Menschen, Einwilligung bei der Nutzung realer Identitäten sowie Verbote virtueller Intimbeziehungen mit Minderjährigen vor. Für Unternehmen in Medien, Marketing, Kundendienst, Bildung und Plattformökosystemen mit China-Bezug stellt dies einen unmittelbaren Compliance-Impuls dar – und einen möglichen Vorläufer globaler Standards für KI-Avatare und menschenähnliche Agenten.
China reguliert „digitale Menschen“: Was die neuen KI-Entwurfsregeln für Unternehmen bedeuten
Kontext: Was China jetzt konkret geregelt hat
Am 3. April 2026 hat die Cyberspace Administration of China (CAC) einen Regulierungsentwurf für KI-basierte „digitale Menschen“ veröffentlicht. Die Regeln adressieren virtuelle, menschenähnliche Avatare und Assistenten, die in Echtzeit mit Nutzern interagieren – in Streaming, Social Media, E‑Commerce, Gaming, Bildung und Customer Service.
Kernpunkte des Entwurfs:
Kennzeichnungspflicht: Inhalte, die von digitalen Menschen erzeugt oder präsentiert werden, müssen klar und prominent als solche gekennzeichnet sein.
Jugendschutz: Digitale Menschen dürfen Minderjährigen (unter 18 Jahren) keine „virtuellen Intimbeziehungen“ oder vergleichbare emotional bindende Dienste anbieten.
Verbot missbräuchlicher Identitätsnutzung: Es ist untersagt, ohne Einwilligung das Aussehen, die Stimme oder andere personenbezogene Merkmale realer Personen für digitale Menschen zu verwenden.
Missbrauchsverbot zur Umgehung von Identitätsprüfungen: Digitale Menschen dürfen nicht eingesetzt werden, um echte Identitäts- oder Altersverifikationen zu umgehen.
Verantwortlichkeit der Betreiber: Plattformen und Dienstanbieter müssen Governance-Strukturen, Content-Moderation und Risikoanalysen speziell für digitale Menschen etablieren.
Die Regeln wurden für eine öffentliche Konsultation bis Anfang Mai 2026 veröffentlicht. Anpassungen sind möglich, aber der regulatorische Kurs ist klar: Digitale Menschen werden als eigenständige, risikobehaftete KI-Kategorie behandelt.
Definition: Was unter „digitalen Menschen“ zu verstehen ist
Der Entwurf zielt nicht auf generelle Chatbots, sondern auf anthropomorphe, interaktive KI-Agenten, die u. a. folgende Merkmale aufweisen:
Menschliche oder stark menschenähnliche Erscheinung (3D-Avatar, fotorealistischer Digital Twin, VTuber-ähnliche Figur)
Sprach- bzw. Multimodal-Interaktion in Echtzeit
Teilweise ausgeprägte „Persönlichkeit“, Emotionserkennung und ‑spiegelung
Einsatz in sozialen, unterhaltenden oder beratenden Kontexten
Für Unternehmen bedeutet das: Jede Lösung, die im Frontend einen menschenähnlichen, persistenten KI-Charakter verwendet – ob im Livestream, im Support-Chat oder im Lernportal –, fällt mit hoher Wahrscheinlichkeit unter diese Regeln, sobald sie auf dem chinesischen Markt angeboten oder von dort aus betrieben wird.
Zentrale Pflichten im Überblick
1. Klare Kennzeichnung und Transparenz
Unternehmen müssen sicherstellen, dass Nutzer jederzeit erkennen können:
dass sie mit einem digitalen Menschen interagieren,
wer für den Dienst verantwortlich ist (Betreiber/Plattform),
in welchem Umfang Inhalte KI-generiert oder vorproduziert sind.
Implikation: User Interfaces, Overlay-Texte, Watermarks und Audio-Hinweise müssen überprüft und ggf. neu gestaltet werden. „Nahtlose“ Verschmelzungen von Mensch und Avatar ohne Aufklärung werden problematisch.
2. Schutz Minderjähriger und Verbot virtueller Intimbeziehungen
Der Entwurf adressiert speziell Dienste, die emotionale Bindung erzeugen – z. B.:
romantische oder „companion“-ähnliche Avatare,
„24/7‑Freundschafts“- oder „AI-Boyfriend/Girlfriend“-Angebote,
stark personalisierte Edutainment- oder Gaming-Charaktere mit Belohnungsmechaniken.
Für Minderjährige sind u. a. untersagt:
virtuelle Intim- oder Beziehungsangebote,
designte Suchtmechaniken („addictive services“),
manipulative Interaktionsmuster, die zu exzessiver Nutzung anregen.
Implikation: Anbieter müssen Altersverifikation, Differenzierung der Funktionalität nach Altersgruppe und angepasste Interaktions-Skripte implementieren. Ein einheitlicher digitaler Mensch für alle Nutzergruppen wird regulatorisch riskant.
3. Einwilligung und Persönlichkeitsrechte bei Avataren
Der Entwurf schränkt die Erzeugung von Avataren ein, die auf realen Personen basieren:
Nutzung von Bild, Stimme oder klar identifizierbaren Merkmalen nur mit ausdrücklicher, nachweisbarer Einwilligung;
Schutz von Prominenten, Influencern und „normalen“ Personen gleichermaßen;
Verbot, digitale Menschen zu erzeugen, um Dritte zu imitieren, zu täuschen oder zu diffamieren.
Implikation:
Unternehmen brauchen standardisierte Einwilligungsprozesse, z. B. in Talent-, Influencer- oder Mitarbeiterverträgen.
Bestehende Bibliotheken mit Avataren, Voice-Clones oder Trainingsdaten sollten auf Einwilligungsstatus und Herkunft geprüft werden.
4. Governance, Monitoring und Incident-Response
Betreiber digitaler Menschen müssen:
Risikoanalysen zu Fehlinformation, Suchtgefahr, Diskriminierung und politisch sensiblen Inhalten durchführen,
technische und organisatorische Kontrollen (Filter, Guardrails, menschliches Review) einrichten,
Meldekanäle und Verfahren zum Abschalten problematischer digitaler Menschen vorhalten.
Implikation: Die Governance-Anforderungen ähneln denen anderer chinesischer KI-Regulierungen – jedoch mit spezifischem Fokus auf die Menschähnlichkeit und die soziale Wirkung der Interaktion.
Konkrete Auswirkungen auf Branchen
Medien, Streaming, Influencer-Ökosysteme
Virtuelle Moderatoren, VTuber und virtuelle Idole müssen klar als digitale Menschen gekennzeichnet werden.
Geschäftsmodelle mit „virtuellen Beziehungen“ zu Fans, VIP-Chats oder personalisierten „Liebesbotschaften“ sind bei Minderjährigen nicht mehr zulässig.
Multi-Markt-Strategien (z. B. gleicher digitaler Star in China, EU und USA) brauchen länderspezifische Regulierungs-Profile.
Marketing und E‑Commerce
Digitale Verkaufsberater oder Brand Ambassadors in Online-Shops dürfen Nutzer nicht im Unklaren lassen, ob sie KI-basiert sind.
Incentivierte Dauer-Interaktion (Gamification, Belohnungsloops) muss im Hinblick auf Sucht- und Manipulationsrisiken bewertet werden – insbesondere, wenn Jugendliche Zielgruppe oder faktische Nutzer sind.
Agenturen, die digitale Menschen als Service anbieten, müssen vertraglich Haftung, Einwilligungen und Content-Governance regeln.
Kundensupport und Enterprise Services
KI-Avatare in Banken, Versicherungen, Telekommunikation oder Behörden sind formal „digitale Menschen“, wenn sie menschenähnlich auftreten.
Hier stehen insbesondere Transparenz, Richtigkeit der Auskünfte und Auditierbarkeit im Vordergrund.
Unternehmen sollten prüfen, ob ein weniger anthropomorphes Interface (z. B. abstrahierter Avatar oder klassischer Chat) regulatorisch robuster ist.
Bildung und digitale Lernplattformen
Lern-Avatare, Tutoren oder Mentoren, die mit Schülern emotional interagieren, geraten direkt in den Fokus der Jugendschutzregeln.
Anbieter müssen pädagogische Leitlinien, Nutzungszeitbegrenzungen und klare Rollendefinitionen (Lehrerersatz vs. Assistenz) dokumentieren.
Handlungsempfehlungen für Unternehmen mit China-Bezug
1. Produktinventur und Klassifizierung
Alle bestehenden und geplanten Anwendungen mit Avataren, Sprechern oder animierten Charakteren identifizieren.
Prüfen, welche davon als „digitale Menschen“ im Sinne des Entwurfs gelten.
Mapping zu anderen chinesischen KI-Regimen (z. B. generative KI, Cybersecurity- und Datengesetze) erstellen.
2. Design- und UX-Überarbeitung
Kennzeichnungspflichten frühzeitig im Interface-Design berücksichtigen.
Varianten entwickeln: „voll anthropomorph“, „stilisiert“ und „funktional“, um je nach Risikoprofil einsetzen zu können.
3. Vertrags- und Datenbasis überprüfen
Einwilligungsklauseln für Mitarbeitende, Sprecher, Models, Influencer und Kundenverträge aktualisieren.
Herkunft, Rechtekette und Lizenzstatus von Avatar-Assets, Modellen und Trainingsdaten dokumentieren.
4. Governance-Struktur aufsetzen oder erweitern
Zuständigkeit für digitale Menschen eindeutig klären (Legal, Compliance, Produkt, IT-Security).
Standardprozesse für Risikoanalyse, Testing, Monitoring und Incident-Response definieren.
5. Internationale Harmonisierung im Blick behalten
Die chinesischen Regeln werden voraussichtlich in Dialog mit anderen Jurisdiktionen (z. B. EU, einzelne G20-Staaten) treten.
Wer heute seine Governance-Struktur an den strengeren Vorgaben ausrichtet, reduziert späteren Anpassungsaufwand in anderen Märkten.
Fazit: Digitale Menschen werden zur regulierten Produktkategorie
Mit den neuen Entwurfsregeln signalisiert China, dass menschenähnliche KI-Agenten regulatorisch nicht mehr als bloßes UX-Detail behandelt werden, sondern als eigene, risikoreiche Dienstekategorie. Für Unternehmen ist jetzt der Zeitpunkt, digitale Menschen als reguliertes Produkt zu verstehen – inklusive Kennzeichnung, Jugendschutz, Persönlichkeitsrechten und Governance.
Wer frühzeitig Inventur, Design-Anpassungen und Governance-Strukturen umsetzt, sichert nicht nur den Zugang zum chinesischen Markt, sondern schafft zugleich einen robusten Rahmen für den künftigen weltweiten Umgang mit KI-Avataren und virtuellen Assistenten.
Häufig gestellte Fragen (FAQ)
Was versteht China unter „digitalen Menschen“ in den neuen KI-Regeln?
„Digitale Menschen“ sind menschenähnliche, interaktive KI-Agenten mit Avatar, Stimme und oft einer eigenen „Persönlichkeit“, die in Echtzeit mit Nutzern kommunizieren. Dazu zählen etwa virtuelle Moderatoren, KI-Assistenten im Kundenservice oder Lern-Avatare, wenn sie anthropomorph auftreten und soziale Interaktionen ermöglichen.
Wie funktionieren die neuen Kennzeichnungs- und Transparenzpflichten für digitale Menschen?
Anbieter müssen klar und dauerhaft sichtbar machen, dass Nutzer mit einem digitalen Menschen und nicht mit einem echten Menschen interagieren. Zusätzlich ist offenzulegen, wer für den Dienst verantwortlich ist und in welchem Umfang Inhalte KI-generiert oder vorproduziert sind, was Auswirkungen auf UI-Design, Overlays und Audio-Hinweise hat.
Welche Auswirkungen haben die chinesischen Regeln zu digitalen Menschen auf den Jugendschutz?
Die Verordnung untersagt virtuellen Menschen, Minderjährigen virtuelle Intimbeziehungen, „Companion“-Dienste oder süchtig machende Interaktionsmuster anzubieten. Unternehmen müssen Altersverifikation, altersabhängige Funktionsumfänge und angepasste Interaktionsskripte einführen, um Jugendliche vor Manipulation und exzessiver Nutzung zu schützen.
Was ist der Unterschied zwischen allgemeinen Chatbots und regulierten „digitalen Menschen“?
Allgemeine Chatbots arbeiten meist textbasiert und ohne menschenähnliche Visualisierung, während „digitale Menschen“ anthropomorphe Avatare, Stimme, Mimik und emotionale Interaktion kombinieren. Die chinesischen Regeln zielen vor allem auf diese sozial wirksamen, menschenähnlichen Frontend-Agenten, nicht auf rein funktionale, nicht-anthropomorphe Bots.
Welche Pflichten haben Unternehmen beim Einsatz realer Identitäten für KI-Avatare?
Unternehmen dürfen Aussehen, Stimme oder andere identifizierbare Merkmale realer Personen nur mit ausdrücklicher, nachweisbarer Einwilligung verwenden. Sie müssen Einwilligungsprozesse in Verträgen verankern, bestehende Avatar- und Voice-Bibliotheken auf Rechte und Herkunft prüfen und dürfen digitale Menschen nicht zur Täuschung oder Diffamierung Dritter einsetzen.
Was sollten Unternehmen mit China-Bezug jetzt konkret tun, wenn sie digitale Menschen nutzen?
Zunächst sollten sie eine Produktinventur durchführen und alle Anwendungen identifizieren, die als digitale Menschen gelten könnten. Anschließend sind Kennzeichnung und UX zu überarbeiten, Einwilligungs- und Datenbasis zu prüfen, Governance- und Monitoringprozesse aufzubauen sowie länderspezifische Compliance-Profile für verschiedene Märkte zu entwickeln.
Wie beeinflussen die chinesischen Entwurfsregeln zu digitalen Menschen globale KI-Strategien?
Da China digitale Menschen als eigenständige, risikobehaftete KI-Kategorie reguliert, werden die Vorgaben voraussichtlich als Referenz in internationalen Regulierungsdebatten dienen. Unternehmen, die ihre Governance früh an diese strengeren Standards anpassen, können späteren Anpassungsaufwand in der EU, den USA und anderen Märkten reduzieren und ihre KI-Avatar-Strategie global robuster machen.