Vietnam führt KI-Gesetz mit Kennzeichnungspflicht für synthetische Bilder und Videos ein

03.03.2026

Seit 1. März 2026 gilt in Vietnam das erste umfassende KI-Gesetz Südostasiens. Zentraler Baustein ist eine Kennzeichnungspflicht für KI‑generierte oder KI‑bearbeitete Bilder, Audioinhalte und Videos, die reale Personen oder Ereignisse simulieren. Der Beitrag erklärt, welche Inhalte konkret betroffen sind, welche Anforderungen an Sichtbarkeit und Maschinenlesbarkeit der Kennzeichnung gestellt werden, wer haftet – und was internationale Plattformen, Marken und Medienunternehmen mit Vietnam‑Bezug jetzt operativ an ihren Content‑Workflows, Governance‑Strukturen und Compliance‑Prozessen anpassen müssen.

Vietnam führt KI-Gesetz mit Kennzeichnungspflicht für synthetische Bilder und Videos ein


Überblick: Was seit 1. März 2026 gilt

Seit dem 1. März 2026 ist in Vietnam das Gesetz über Künstliche Intelligenz (Law on Artificial Intelligence 2025) in Kraft. Es ist das erste umfassende KI‑Regelwerk in Südostasien und verpflichtet Anbieter dazu, bestimmte KI‑generierte oder ‑bearbeitete Inhalte klar erkennbar zu kennzeichnen. Im Fokus stehen Audio‑, Bild‑ und Video‑Inhalte, die reale Personen oder tatsächliche Ereignisse simulieren oder nachahmen.

Für Unternehmen – auch aus dem Ausland – gilt: Wer KI‑Content in Vietnam bereitstellt oder Dienste dort betreibt, fällt in aller Regel unter das Gesetz. Die Vorschriften sind damit nicht nur ein lokales Thema, sondern ein weiterer Baustein im global entstehenden Mosaik von KI‑Kennzeichnungspflichten.


Welche Inhalte müssen gekennzeichnet werden?


Anwendungsbereich der Kennzeichnungspflicht

Kennzeichnungspflichtig sind unter anderem:

  • Mit KI erzeugte oder bearbeitete Bilder und Videos, die


- das Aussehen oder die Stimme realer Personen imitieren (z. B. Deepfake‑Videos, synthetische Sprecher, KI‑Porträts) oder

- reale Ereignisse nachstellen bzw. neu zusammensetzen (z. B. „nachbearbeitete“ Nachrichtenclips, Sportszenen, Demonstrationen).

  • KI‑Audioinhalte, die Stimmen imitieren oder Ereignisse akustisch rekonstruieren (z. B. simulierte Interviews, Politiker‑Statements, Kundendienst‑Hotlines mit nachgeahmten realen Personen).


Konzerne und Plattformen können sich nicht darauf berufen, dass Nutzer den Content hochladen: Die Verantwortung trifft nach dem Gesetz Entwickler, Anbieter und „Deployers“ von KI‑Systemen – also alle, die KI‑Systeme betreiben oder KI‑Inhalte an die Öffentlichkeit bringen.


Ausnahmen und Sonderfälle

Für künstlerische, kreative oder filmische Werke lässt das Gesetz Spielraum: Die Kennzeichnung muss so erfolgen, dass sie die Darbietung oder das Nutzungserlebnis nicht unverhältnismäßig stört. Das ändert aber nichts an der Pflicht an sich – es geht eher um Platzierung und Form (z. B. Hinweise im Abspann statt permanentes Wasserzeichen).


Form der Kennzeichnung: sichtbar und maschinenlesbar


Sichtbare Kennzeichnung für Menschen

Die Kennzeichnung muss laut Gesetz:

  • leicht erkennbar sein,

  • eine klare Unterscheidung zu realen Inhalten ermöglichen und

  • beim Bereitstellen des Inhalts vorhanden sein (nicht nur in Metadaten).


Praktikable Ausgestaltungsmöglichkeiten sind beispielsweise:

  • Einblendung eines gut sichtbaren Overlays („KI-generiert“, „KI-bearbeitet“),

  • permanent oder in regelmäßigen Abständen im Video sichtbare Marker,

  • deutlich platzierte Text‑Hinweise im Umfeld des Players oder Bildes.


Maschinenlesbare Markierung

Zusätzlich verlangt das Gesetz eine maschinenlesbare Markierung. Die konkrete technische Ausgestaltung wird per nachgelagerter Regierungsverordnung präzisiert, dennoch ist der Erwartungshorizont klar:

  • Einbettung standardisierter Metadaten (z. B. C2PA‑ähnliche Content Credentials),

  • robuste Wasserzeichen, die auch nach üblichen Bearbeitungsschritten erhalten bleiben,

  • eindeutige Flags in API‑Responses von KI‑Diensten.


Unternehmen sollten ihre KI‑ und DAM‑Systeme (Digital Asset Management) so konfigurieren, dass Kennzeichnungen automatisch gesetzt und bei Transformationen (Zuschneiden, Re‑Encoding, Plattform‑Syndizierung) mitgeführt werden.


Haftung und Risiken bei Verstößen

Das Gesetz kombiniert Kennzeichnungspflichten mit einem breiteren Rahmen zu Transparenz, Sicherheit und Missbrauchsprävention. Relevante Risiken sind:

  • Rechtsfolgen bei Verstößen: Wer Kennzeichnungspflichten missachtet oder KI‑Inhalte gezielt zur Täuschung nutzt, riskiert verwaltungsrechtliche Sanktionen bis hin zu strafrechtlicher Verfolgung.

  • Zurechnung auf Plattformen: Betreiber, die Deepfakes massenhaft verbreiten lassen, ohne Kennzeichnung vorzusehen oder durchzusetzen, können als „Deployers“ in die Verantwortung geraten.

  • Reputationsschäden: Medienhäuser, Marken oder öffentliche Institutionen, die KI‑Manipulationen ohne Kennzeichnung verbreiten, setzen Glaubwürdigkeit und Vertrauen nachhaltig aufs Spiel.


Für internationale Anbieter mit Vietnam‑Exposure (Werbekampagnen, regionale Plattformversionen, lokale Influencer‑Programme) ist ein reiner „globaler Standardtext“ rechtlich zu wenig – lokale Konformität ist erforderlich.


Operative Auswirkungen auf Unternehmen


1. Anpassung von Content‑Workflows

Unternehmen sollten kurzfristig:

  • Content‑Klassifizierung einführen: Klar trennen zwischen


- vollständig menschlich erzeugten Inhalten,

- KI‑unterstützten Bearbeitungen (Retusche, Upscaling etc.),

- KI‑generierten oder ‑manipulierten Inhalten mit Personen‑/Ereignis‑Bezug.

  • Kennzeichnungs‑Checkpoints in den Produktionsprozess einbauen (z. B. vor Veröffentlichung, vor Export aus dem DAM, bei Upload auf Social‑Kanäle für Vietnam).

  • Vorlagen und Templates für Kennzeichnungs‑Overlays, Disclaimer‑Texte und Metadaten standardisieren.


2. Technische Implementierung von Wasserzeichen und Logging

Technik‑ und Compliance‑Teams sollten gemeinsam:

  • geeignete Wasserzeichen‑/Content‑Credential‑Lösungen evaluieren und tief in Rendering‑Pipelines, Generierungs‑APIs und Export‑Workflows integrieren,

  • ein zentrales Logging aufsetzen, das u. a. erfasst:


- welches KI‑System welchen Inhalt erzeugt oder bearbeitet hat,

- verwendete Modelle, Versionen, Prompts und Trainingsdaten‑Quellen (soweit relevant),

- gesetzte Kennzeichnungs‑Flags und Metadaten,

  • Prozesse für Audit‑Requests vorbereiten, d. h. regulatorische Nachfragen oder interne Untersuchungen schnell mit belastbaren Protokollen beantworten können.


3. Governance, Policies und Schulungen

Auf Governance‑Ebene sind notwendig:

  • Unternehmensweite KI‑Content‑Policy, die Vietnam explizit adressiert und Schwellenwerte für Kennzeichnung definiert (z. B.: „Sobald eine reale Person/Marke/Ereignis erkennbar simuliert wird, besteht Kennzeichnungspflicht.“),

  • Rollen und Verantwortlichkeiten (Product Owner KI‑Features, Legal, InfoSec, lokale Marketingleitungen),

  • Schulungen für Marketing, Redaktion, Social‑Media‑ und Produktteams, damit diese erkennen, wann Kennzeichnung rechtlich geboten ist – und wie sie praktisch vorgenommen wird.


Beispiele und Szenarien für internationale Organisationen


Beispiel 1: Globale Social‑Plattform mit Vietnam‑Nutzern

Eine Plattform erlaubt Nutzerinnen und Nutzern das Erstellen von KI‑Porträts und Avataren auf Basis hochgeladener Fotos. Für Vietnam sollte die Plattform:

  • beim Erstellungsprozess klar anzeigen, dass es sich um KI‑generierte Darstellungen handelt,

  • generierte Bilder automatisch mit sichtbarer Kennzeichnung und maschinenlesbaren Metadaten versehen,

  • in den Community‑Guidelines regeln, dass Deepfakes realer Personen ohne Kennzeichnung unzulässig sind, und technische Erkennungs‑ und Meldeverfahren implementieren.


Beispiel 2: Internationale Marke mit Kampagnen in Vietnam

Eine globale Konsumgütermarke plant eine Werbekampagne in Vietnam, bei der ein bekannter Schauspieler per KI in verschiedenen, nie tatsächlich aufgenommenen Szenen erscheint.

Erforderliche Maßnahmen:

  • Kennzeichnung der Spots als KI‑bearbeitet, z. B. durch Hinweise am Anfang/Ende des Clips oder im Abspann,

  • Sicherstellen, dass alle Ad‑Server, Streaming‑Plattformen und Social‑Kanäle, die in Vietnam ausspielen, die Kennzeichnungsmetadaten übernehmen,

  • Anpassung der Verträge mit Agenturen und Produktionsfirmen: klare Pflicht zur Einhaltung der vietnamesischen KI‑Gesetzgebung.


Beispiel 3: Medienhaus mit Vietnam‑Büro

Ein internationales Medienhaus nutzt KI, um Nachrichtenclips aus Rohmaterial automatisch zu schneiden und mit synthetischer Sprecherstimme zu versehen.

To‑dos:

  • Clips mit synthetischer Stimme und rekonstruierten Szenen als KI‑generiert kennzeichnen,

  • getrennte Workflows für rein redaktionell geschnittene Inhalte vs. KI‑produzierte Segmente etablieren,

  • Redaktionsrichtlinien aktualisieren, um Transparenz gegenüber Publikum und Regulator zu gewährleisten.


Strategische Einordnung: Vorbereitung auf globale Kennzeichnungspflichten

Vietnam folgt einem Trend, den u. a. auch die EU mit dem AI Act setzt: Risikobasierte Regulierung und verpflichtende Kennzeichnung schwer erkennbarer KI‑Inhalte. Für international agierende Unternehmen ist es strategisch sinnvoll, Vietnam nicht als Sonderfall, sondern als Pilotmarkt zu nutzen:

  • Harmonisierte, robuste Kennzeichnungs‑Standards (sichtbar + maschinenlesbar) global etablieren,

  • technische Komponenten so gestalten, dass sie für weitere Jurisdiktionen (EU, USA, andere asiatische Märkte) skalierbar sind,

  • interne Reporting‑Strukturen schaffen, die grenzüberschreitende KI‑Compliance zentral steuern.


Wer diese Hausaufgaben jetzt im Kontext Vietnam erledigt, reduziert nicht nur unmittelbare Haftungs‑ und Reputationsrisiken, sondern stärkt auch die eigene Position für künftige, weltweit zunehmende Regulierungsanforderungen an synthetische Medien.


Häufig gestellte Fragen (FAQ)


Was regelt das neue KI-Gesetz in Vietnam seit dem 1. März 2026?

Das Law on Artificial Intelligence 2025 verpflichtet Anbieter dazu, bestimmte KI-generierte oder -bearbeitete Inhalte klar als solche zu kennzeichnen. Im Fokus stehen Audio‑, Bild‑ und Video‑Inhalte, die reale Personen oder tatsächliche Ereignisse simulieren oder nachahmen. Das Gesetz gilt auch für ausländische Unternehmen, sobald sie KI-Content in Vietnam bereitstellen oder entsprechende Dienste dort betreiben.


Welche Inhalte müssen nach dem vietnamesischen KI-Gesetz als KI-generiert gekennzeichnet werden?

Kennzeichnungspflichtig sind insbesondere mit KI erzeugte oder bearbeitete Bilder, Videos und Audioinhalte, die das Aussehen oder die Stimme realer Personen imitieren oder reale Ereignisse nachstellen. Dazu gehören etwa Deepfakes, synthetische Sprecher, simulierte Interviews oder KI-„nachbearbeitete“ Nachrichtenclips. Entscheidend ist, dass reale Personen oder Ereignisse erkennbar simuliert werden.


Wie muss die Kennzeichnung von KI-generierten Bildern und Videos in Vietnam konkret erfolgen?

Die Kennzeichnung muss für Menschen leicht erkennbar sein und eine klare Unterscheidung zu realen Inhalten ermöglichen, etwa durch sichtbare Overlays, permanente Marker oder deutlich platzierte Hinweise am Player. Zusätzlich ist eine maschinenlesbare Markierung erforderlich, zum Beispiel über standardisierte Metadaten, robuste Wasserzeichen oder eindeutige Flags in API‑Responses. Unternehmen sollten ihre Systeme so konfigurieren, dass Kennzeichnungen automatisiert gesetzt und bei allen Transformationen mitgeführt werden.


Gibt es Ausnahmen von der Kennzeichnungspflicht, etwa für Kunst oder Filme?

Für künstlerische, kreative oder filmische Werke besteht zwar keine materielle Ausnahme, aber Spielraum bei der Form der Kennzeichnung. Die Hinweise dürfen das Nutzungserlebnis nicht unverhältnismäßig stören und können beispielsweise im Abspann oder begleitenden Text platziert werden. Die Kennzeichnungspflicht als solche bleibt jedoch auch in diesen Fällen bestehen.


Welche Risiken drohen Unternehmen bei Verstößen gegen die Kennzeichnungspflicht in Vietnam?

Unternehmen, die Kennzeichnungspflichten missachten oder KI-Inhalte gezielt zur Täuschung einsetzen, müssen mit verwaltungsrechtlichen Sanktionen bis hin zu strafrechtlicher Verfolgung rechnen. Plattformbetreiber können als „Deployers“ haften, wenn sie massenhaft nicht gekennzeichnete Deepfakes verbreiten lassen. Zusätzlich drohen erhebliche Reputationsschäden, wenn Medien, Marken oder Institutionen KI-Manipulationen ohne Transparenz veröffentlichen.


Was sollten internationale Plattformen und Marken mit Vietnam-Bezug jetzt konkret tun?

Unternehmen sollten ihre Content‑Workflows anpassen, KI-Inhalte systematisch klassifizieren und verbindliche Kennzeichnungs‑Checkpoints vor Veröffentlichung einführen. Technisch sind Wasserzeichen-, Metadaten- und Logging-Lösungen in Rendering‑Pipelines und KI‑APIs zu integrieren. Ergänzend sind KI‑Content‑Policies, klare Rollen in Governance-Strukturen sowie Schulungen für Marketing-, Produkt- und Redaktionsteams notwendig, um die vietnamesischen Vorgaben sicher einzuhalten.


Wie fügt sich das vietnamesische KI-Gesetz in die globale Entwicklung der KI-Regulierung ein?

Das vietnamesische KI-Gesetz ist Teil eines globalen Trends hin zu risikobasierter Regulierung und verpflichtender Kennzeichnung schwer erkennbarer KI-Inhalte, wie er etwa auch im EU AI Act angelegt ist. Für international agierende Unternehmen eignet sich Vietnam als Pilotmarkt, um globale Standards für sichtbare und maschinenlesbare Kennzeichnungen aufzubauen. Wer hier früh robuste Prozesse etabliert, ist besser auf weitere künftige Regulierungen in anderen Regionen vorbereitet.