Vietnams neues KI-Gesetz tritt in Kraft: Was Unternehmen jetzt zu Kennzeichnung und Risiko-Pflichten wissen müssen
04.03.2026

Seit dem 1. März 2026 gilt in Vietnam das erste umfassende KI-Gesetz Südostasiens. Es führt ein verbindliches, risikobasiertes Regime für KI-Systeme ein – einschließlich strenger Transparenz‑ und Kennzeichnungspflichten für KI-generierte Inhalte. Der Beitrag erklärt die zentralen Neuerungen, die unmittelbaren Compliance-Anforderungen (u. a. Labelling und maschinenlesbare Markierung von Deepfakes) sowie die praktischen Implikationen für internationale Unternehmen, die KI in Vietnam entwickeln oder einsetzen.
Vietnams neues KI-Gesetz tritt in Kraft: Was Unternehmen jetzt zu Kennzeichnung und Risiko-Pflichten wissen müssen
1. Kontext: Vietnam als erster KI-Regulierer in Südostasien
Seit dem 1. März 2026 ist in Vietnam das Law on Artificial Intelligence 2025 (Gesetz Nr. 134/2025/QH15) in Kraft. Damit verfügt Vietnam als erstes Land in Südostasien über ein umfassendes, eigenständiges KI-Gesetz. Das Gesetz wurde am 10. Dezember 2025 verabschiedet und umfasst 35 Artikel in acht Kapiteln.
Ziel ist es, Innovation zu ermöglichen und zugleich Risiken für Menschen, nationale Sicherheit und öffentliche Ordnung zu kontrollieren. Unternehmen müssen keine Vorabgenehmigung einholen, sind aber zu Selbsteinschätzung, Dokumentation und Transparenz verpflichtet.
2. Risikobasierter Ansatz: Drei Stufen und Selbstklassifizierung
2.1 Einstufung der KI-Systeme
Das Gesetz führt ein dreistufiges Risiko-Modell ein:
Niedriges Risiko – z. B. einfache Automatisierungen, Assistenzsysteme ohne wesentliche Auswirkungen auf Rechte oder Sicherheit.
Mittleres Risiko – Systeme mit spürbaren Auswirkungen auf Nutzer, etwa in Bildung, Personalwesen oder Kreditvergabe, aber ohne unmittelbare Lebens- oder Sicherheitsgefahr.
Hohes Risiko – KI mit erheblichem Einfluss auf Grundrechte, Sicherheit, kritische Infrastrukturen oder breite Bevölkerungsgruppen.
Kriterien sind unter anderem: Einfluss auf Menschenrechte, Sicherheitsrelevanz, Nutzerkreis, Skalierung und Einsatzkontext.
2.2 Pflichten aus der Risiko-Einstufung
Für mittlere und hohe Risiken gelten verschärfte Anforderungen:
Verpflichtende Selbstklassifizierung des Systems und Meldung an die zuständige Behörde.
Ausführliche Technik‑ und Risikodokumentation (Zweck, Trainingsdaten, bekannte Beschränkungen, Kontrollmechanismen).
Transparenzpflichten gegenüber Nutzern (Information, dass sie mit einem KI-System interagieren, Zweck, Verantwortlicher).
Für Hochrisiko-Systeme: Konformitätsbewertung vor Inverkehrbringen, strenge Sicherheits‑, Robustheits- und Überwachungspflichten.
Unternehmen müssen ihre interne Governance an diesen risikobasierten Rahmen anpassen – etwa durch KI-Risikoregister, interne Freigabeprozesse und Audit-Trails.
3. Strikte Kennzeichnungspflichten für KI-generierte Inhalte
3.1 Sichtbare Kennzeichnung von Deepfakes
Ein zentrales Element des Gesetzes ist Artikel 11 Absatz 4:
Wenn Audio, Bilder oder Videos mithilfe von KI erzeugt oder bearbeitet werden, um reale Personen oder deren Stimme zu imitieren oder reale Ereignisse nachzustellen, müssen diese Inhalte klar als KI-generiert gekennzeichnet werden.
Die Kennzeichnung muss leicht erkennbar sein und erlauben, den Inhalt zuverlässig von echten Aufnahmen zu unterscheiden.
Für künstlerische, filmische oder kreative Werke ist eine angepasste Kennzeichnungsform vorgesehen, die die Rezeption nicht unangemessen stört (z. B. Hinweise im Vorspann, Abspann oder im Begleittext statt großer Overlays im Bild).
3.2 Maschinenlesbare Markierung
Zusätzlich zur sichtbaren Kennzeichnung verlangt das Gesetz eine maschinenlesbare Markierung der KI-generierten Audio‑, Bild- und Videoinhalte. Die konkrete technische Ausgestaltung (z. B. Metadaten-Standards, Wasserzeichenformate) wird durch nachgelagerte Regierungsverordnungen präzisiert.
Das bedeutet für Unternehmen:
Implementierung von technischen Markierungsverfahren in Erzeugungs‑ und Bearbeitungspipelines (z. B. Metadaten-Standards, robuste Wasserzeichen).
Anpassung von Export- und Veröffentlichungsprozessen, damit keine unmarkierten Deepfakes in den Verkehr gebracht werden.
Prüfung von Tools Dritter (z. B. SaaS-Bildgeneratoren), ob diese die gesetzlich geforderte Markierung unterstützen.
3.3 Informationspflicht bei irreführenden Inhalten
Wenn KI-generierte oder KI-bearbeitete Texte, Audios, Bilder oder Videos
der Öffentlichkeit bereitgestellt werden und
Verwirrung über die Echtheit von Ereignissen oder Personen auslösen können,
muss der deployende Akteur klar darauf hinweisen, dass es sich um KI-generierte oder -bearbeitete Inhalte handelt. Dies gilt unabhängig davon, ob ein generelles Labeling bereits vorhanden ist.
4. Klare Verbote missbräuchlicher KI-Nutzung
Das Gesetz enthält einen Katalog von sechs verbotenen Handlungsgruppen, u. a.:
Einsatz von KI zur Begehung rechtswidriger Handlungen oder zur Verletzung von Rechten Dritter.
Systematische Nutzung von Deepfakes, um Menschen gezielt und in großem Umfang zu täuschen oder ihr Verhalten zu manipulieren.
Ausnutzung von vulnerablen Gruppen (Kinder, Ältere, Menschen mit Behinderungen, Personen mit eingeschränkter Entscheidungsfähigkeit).
Erzeugung und Verbreitung von Fake-Inhalten, die die nationale Sicherheit oder öffentliche Ordnung ernsthaft gefährden können.
Umgehung oder Sabotage von menschlichen Kontrollmechanismen in KI-Systemen.
Verbergen oder Entfernen von vorgeschriebenen Warnhinweisen, Labels oder Transparenzinformationen.
Für Unternehmen im Medien-, Werbe-, Plattform- oder Sicherheitsbereich ist insbesondere relevant, dass die gezielte, manipulative Nutzung von Deepfakes nun explizit adressiert und sanktionierbar ist.
5. Konkrete Implikationen für Unternehmen
5.1 Betroffene Branchen und Use Cases
Besonders betroffen sind:
Social-Media- und Plattformbetreiber mit User Generated Content und KI-Filtern (Avatare, Voice-Changer, Videoeffekte).
Medienhäuser und Werbeagenturen, die KI für Kampagnen, virtuelle Influencer oder synthetische Sprecher einsetzen.
E-Commerce, Gaming und Entertainment, die KI-basierte Charaktere, Live-Streaming-Avatare oder immersive Experiences nutzen.
Unternehmen mit globalen KI-Services, deren Angebote in Vietnam zugänglich sind (z. B. Bild‑ und Videogeneratoren, API-basierte KI-Dienste).
Typische Beispiele:
Eine globale Kurzvideo-Plattform mit Sitz außerhalb Vietnams bietet in Vietnam einen KI-Avatar-Filter, der reale Gesichter täuschend echt nachbildet. Ab sofort muss jeder so erzeugte Clip sichtbar und maschinenlesbar als KI-generiert markiert sein.
Ein Werbetreibender setzt eine synthetische Stimme eines prominenten Sprechers ein, um ein Produkt zu bewerben. Ohne transparente Kennzeichnung und Einwilligung kann dies mehrere Verbotsnormen (Imitation, Täuschung, Persönlichkeitsrechte) verletzen.
Ein News-Portal nutzt generative KI zur Bild-Illustration realer Ereignisse. Es muss sicherstellen, dass Leser den Unterschied zwischen dokumentarischem Material und KI-Visualisierungen klar erkennen.
5.2 Sofortige Compliance-Schritte
Unternehmen, die KI in oder für Vietnam einsetzen, sollten kurzfristig:
Bestandsaufnahme aller KI-Systeme
- Einsatzfelder, Nutzerkreise, potenzielle Auswirkungen.
- Vorläufige Einstufung in niedrig, mittel oder hoch riskant.
Implementierung von Labeling- und Markierungsprozessen
- Technische Integration von Kennzeichnung und maschinenlesbarer Markierung in Content-Pipelines.
- Anpassung von UI/UX (Hinweistexte, Icons, Disclaimer).
Aufbau von Governance-Strukturen
- Verantwortlichkeiten (z. B. KI-Compliance-Officer, bereichsübergreifendes KI-Gremium).
- Richtlinien für den Umgang mit Deepfakes, Simulation realer Personen und sensibler Einsatzfelder.
Vertragliche Anpassungen
- Ergänzung von Verträgen mit Dienstleistern und Kunden um Pflichten zur Einhaltung des vietnamesischen KI-Gesetzes.
- Regelungen zur Haftung bei Verstößen (z. B. unzureichende Kennzeichnung durch Dritte).
Monitoring der Sekundärregulierung
- Die Details zu technischen Standards (Markierungsformate, Datenstandards, Konformitätsbewertung) folgen per Dekret. Unternehmen sollten frühzeitig technische und rechtliche Ressourcen vorhalten, um sich anzupassen.
6. Strategische Bedeutung für globale KI-Governance
Vietnam positioniert sich mit diesem Gesetz als früher Regulierer und Referenz in der ASEAN-Region. Für international agierende Unternehmen bedeutet das:
KI-Produkte müssen zunehmend multijurisdiktionale Compliance erfüllen (EU, Vietnam, weitere Märkte mit risikobasierten Modellen).
Es entsteht ein De-facto-Mindeststandard für Kennzeichnungspflichten bei Deepfakes und generativen Inhalten.
Frühzeitige Anpassungen in Vietnam können als Blaupause für andere, ähnlich regulierte Märkte dienen.
Unternehmen, die Vietnam als Produktions‑ oder Absatzmarkt nutzen oder dort Daten und KI-Modelle trainieren, sollten das neue Gesetz nicht nur als Compliance-Herausforderung, sondern als Chance zur Professionalisierung ihrer KI-Governance verstehen.
Häufig gestellte Fragen (FAQ)
Was regelt das neue vietnamesische KI-Gesetz (Law on Artificial Intelligence 2025)?
Das Law on Artificial Intelligence 2025 ist seit dem 1. März 2026 in Vietnam in Kraft und schafft erstmals ein umfassendes KI-Regime in Südostasien. Es basiert auf einem risikobasierten Ansatz, verpflichtet Unternehmen zu Selbstklassifizierung, Dokumentation und Transparenz und enthält spezifische Vorgaben zu Kennzeichnung, Verbotstatbeständen und Governance-Strukturen für KI-Systeme.
Wie funktioniert die risikobasierte Einstufung von KI-Systemen in Vietnam?
Das Gesetz unterscheidet drei Risikostufen: niedrig, mittel und hoch, abhängig von Einfluss auf Grundrechte, Sicherheit, Nutzerkreis und Einsatzkontext. Unternehmen müssen ihre Systeme selbst einstufen, bei mittleren und hohen Risiken die Behörde informieren und zusätzliche Pflichten wie erweiterte Dokumentation, Transparenz gegenüber Nutzern und bei Hochrisiko-Systemen Konformitätsbewertungen erfüllen.
Welche Kennzeichnungspflichten gelten für KI-generierte Inhalte und Deepfakes?
KI-generierte oder -bearbeitete Audio-, Bild- und Videoinhalte, die reale Personen imitieren oder reale Ereignisse nachstellen, müssen klar und gut erkennbar als KI-generiert gekennzeichnet werden. Zusätzlich verlangt das Gesetz eine maschinenlesbare Markierung (z. B. Metadaten, Wasserzeichen), damit Inhalte auch technisch als KI-Erzeugnisse identifizierbar sind und Verwechslungen mit echten Aufnahmen vermieden werden.
Was ist der Unterschied zwischen sichtbarer Kennzeichnung und maschinenlesbarer Markierung?
Die sichtbare Kennzeichnung richtet sich an Menschen und umfasst klare Hinweise wie Labels, Icons oder Text, dass ein Inhalt KI-generiert ist. Die maschinenlesbare Markierung hingegen ist in den Daten selbst hinterlegt (etwa als Metadaten oder Wasserzeichen), damit Plattformen, Tools und Behörden die Herkunft des Inhalts automatisiert erkennen und überprüfen können.
Welche Nutzungen von KI sind nach dem vietnamesischen KI-Gesetz ausdrücklich verboten?
Verboten sind unter anderem der Einsatz von KI zur Begehung rechtswidriger Handlungen, die manipulative Nutzung von Deepfakes zur gezielten Täuschung, die Ausbeutung vulnerabler Gruppen sowie die Erzeugung von Fake-Inhalten, die nationale Sicherheit oder öffentliche Ordnung ernsthaft gefährden. Ebenfalls untersagt ist das Umgehen menschlicher Kontrollmechanismen und das Entfernen vorgeschriebener Warnhinweise oder Transparenzinformationen.
Welche Branchen sind von den neuen KI-Pflichten in Vietnam besonders betroffen?
Besonders betroffen sind Social-Media- und Plattformbetreiber mit User Generated Content, Medienhäuser und Werbeagenturen mit KI-basierten Kampagnen, sowie E-Commerce-, Gaming- und Entertainment-Unternehmen mit KI-Avataren oder virtuellen Charakteren. Auch globale Anbieter von KI-Services, deren Dienste in Vietnam verfügbar sind, müssen ihre Systeme und Inhalte an die vietnamesischen Kennzeichnungs- und Risikopflichten anpassen.
Was sollten Unternehmen jetzt tun, um das vietnamesische KI-Gesetz zu erfüllen?
Unternehmen sollten zunächst eine Bestandsaufnahme aller KI-Systeme vornehmen und diese in niedrig, mittel oder hoch riskant einstufen. Anschließend sind Kennzeichnungs- und Markierungsprozesse zu implementieren, Governance-Strukturen und Verantwortlichkeiten (z. B. KI-Compliance-Officer) aufzubauen, Verträge mit Dienstleistern anzupassen und die weitere Sekundärregulierung zu technischen Standards und Konformitätsbewertungen aktiv zu beobachten.