EU-AI-Act-Revision: Was das geplante Verbot sexueller Deepfakes für Unternehmen bedeutet

11.03.2026

Die zyprische EU-Ratspräsidentschaft hat in ihrem Arbeitsentwurf zur Überarbeitung des AI Act ein ausdrückliches Verbot von KI-Systemen verankert, die sexuelle Deepfakes und nicht‑einvernehmliche intime Inhalte erzeugen. Damit reagiert der Rat auf politischen Druck insbesondere aus Frankreich und Spanien und auf die Feststellung der EU‑Kommission, dass solche Systeme bislang nicht klar von den Verbotstatbeständen des AI Act erfasst sind. Der Beitrag erläutert, welche Geschäftsmodelle und Technologien betroffen sind, welche Compliance‑Pflichten auf Unternehmen zukommen und warum auch Nicht‑EU‑Anbieter ihre Produkte und Prozesse zeitnah anpassen müssen.

EU-AI-Act-Revision: Was das geplante Verbot sexueller Deepfakes für Unternehmen bedeutet


Ausgangslage: Warum der AI Act schon wieder aufgeschnürt wird

Der AI Act ist seit August 2024 in Kraft und wird schrittweise wirksam. Er definiert verbotene KI-Praktiken (Art. 5) und Hochrisiko-Anwendungen, verfolgt aber einen technologieoffenen Ansatz. In der Praxis hat sich nun gezeigt, dass ein zentrales Risiko nicht explizit adressiert ist: KI-Systeme, die sexuelle Deepfakes und nicht‑einvernehmliche intime Inhalte erzeugen.

Die EU-Kommission hat in einem Schreiben an das Parlament klargestellt, dass solche Systeme nach aktueller Rechtslage nicht eindeutig als verbotene Praktiken gelten. Parallel wächst der politische Druck: Mehr als 50 Abgeordnete fordern ein ausdrückliches Verbot „AI‑gestützter Nackt- und Undressing‑Apps“, und mehrere Mitgliedstaaten drängen auf Nachschärfung.


Neuer Schritt: Zypern verankert explizites Verbot im Ratsmandat


Was im Arbeitsentwurf steht

Die zyprische Ratspräsidentschaft hat am 10. März 2026 in den finalen Entwurf für das Verhandlungsmandat der Mitgliedstaaten zur AI‑Act‑Revision eine neue Verbotskategorie aufgenommen: KI‑Modelle und ‑Systeme, die geeignet sind,

  • sexuelle Deepfakes,

  • nicht‑einvernehmliche sexuell explizite Inhalte oder

  • intime Nacktdarstellungen


zu erzeugen oder deren Erstellung gezielt zu erleichtern.

Hintergrund ist eine gemeinsame Initiative Frankreichs und Spaniens, die zusätzliche Unterstützung u. a. aus Deutschland gefunden hat. Politisch ist damit sehr wahrscheinlich, dass dieses Verbot die weitere Trilog‑Diskussion prägt und am Ende Teil des revidierten AI Act wird.


Verhältnis zu bestehenden EU-Instrumenten

Parallel existieren bereits strafrechtliche Vorgaben, etwa die Richtlinie zur Bekämpfung von Gewalt gegen Frauen, die Mitgliedstaaten verpflichtet, die Erstellung und Verbreitung intimer Deepfakes unter Strafe zu stellen. Diese adressieren aber primär Täter und Plattformnutzer, nicht die KI‑Systeme selbst.

Die AI‑Act‑Revision ergänzt dies um eine produkt- und systembezogene Ebene: Bestimmte KI‑Modelle sollen gar nicht mehr als rechtmäßige Produkte auf dem EU‑Binnenmarkt zulässig sein.


Welche Geschäftsmodelle direkt betroffen sind


1. Generative Bild- und Video-Tools mit Nackt- oder „Undressing“-Funktion

Offensichtlich im Fokus stehen Dienste, die

  • aus Portraitfotos „nackte“ Versionen generieren,

  • Kleidung virtuell entfernen oder

  • realistisch wirkende sexuelle Handlungen synthetisch darstellen,


ohne dass die dargestellte Person ihr Einverständnis gegeben hat. Solche Funktionen wären in der EU künftig grundsätzlich nicht mehr zulässig – unabhängig davon, ob sie als Webdienst, App oder API angeboten werden.

Konsequenz:

  • Reine „Adult-Content“-Generatoren für Fantasiefiguren sind nur dann noch denkbar, wenn sie technisch und organisatorisch so gestaltet sind, dass kein Bezug zu identifizierbaren realen Personen hergestellt werden kann.


2. Offene Foundation- und Basismodelle

Die geplante Formulierung zielt nicht nur auf Endnutzer-Apps, sondern auf Modelle „geeignet zur Generierung“ sexueller Deepfakes. Damit geraten auch

  • offene Bild-/Video‑Modelle,

  • Checkpoint‑Releases und

  • spezialisierte Fine‑Tuning‑Angebote


in den Blick, wenn sie praktisch ohne nennenswerte Hürden zur Erstellung solcher Inhalte genutzt werden können.

Konsequenz:

  • Anbieter müssen nachweisen können, dass Modellarchitektur, Trainingsdaten, Guardrails und Nutzungsbedingungen das Missbrauchsrisiko auf ein tolerierbares Minimum senken.


3. Hosting-, Plattform- und Werbedienste

Auch wenn das Verbot primär auf KI‑Systeme zielt, steigen die Anforderungen für

  • UGC‑Plattformen,

  • Werbenetzwerke,

  • Cloud‑Provider mit Model‑Hosting,

  • Marktplätze für KI‑Modelle.


Sie müssen nachweisen können, dass sie keine eindeutig verbotenen KI‑Systeme anbieten oder gezielt bewerben und dass geeignete Prüf‑ und De‑Listing‑Prozesse existieren.


Compliance-Herausforderungen: Was Unternehmen jetzt vorbereiten sollten


Technische Maßnahmen

Unternehmen, die generative Bild- oder Videotechnologie anbieten, sollten kurzfristig prüfen, ob folgende Mechanismen vorhanden bzw. nachrüstbar sind:

  • Personen- und Nackterkennungs-Filter: Automatische Erkennung realer Gesichter und Körper, kombiniert mit Blockierung nicht‑einvernehmlicher Nackt- oder Sexdarstellungen.

  • Provenance-, Wasserzeichen- und Logging-Konzepte: Robuste, schwer entfernbare Markierungen synthetischer Inhalte sowie detaillierte Protokollierung von Prompts und Ausgaben für forensische Nachvollziehbarkeit.

  • Prompt- und Output-Moderation: Fein abgestimmte Blocklisten für Prompts (z. B. „undress“, „make nude“, bekannte Persönlichkeiten) und automatische Sperrmechanismen für problematische Outputs.

  • Geo-Fencing und Feature-Gating: Technische Trennung sensibler Funktionen, die im EU‑Binnenmarkt gar nicht oder nur unter strengen Bedingungen verfügbar sind.


Governance und Produktentwicklung

Auch jenseits der Technik ist Anpassung erforderlich:

  • Produkt- und Feature-Review: Systematische Bewertung aller Funktionen gegen die Liste verbotener Praktiken. Features mit Sexualisierungs- oder „Undressing“-Komponente sollten identifiziert und priorisiert werden.

  • Risikobewertung und Dokumentation: Dokumentierte Risikoanalysen zu missbräuchlichen Nutzungen, inklusive Maßnahmenplan und Residualrisiko-Bewertung.

  • Vertrags- und AGB-Überarbeitung: Klarstellung in Nutzungsbedingungen, dass Erstellung nicht‑einvernehmlicher intimer Inhalte untersagt ist; Sanktionen (Sperrung, Kündigung) sollten explizit geregelt werden.

  • Beschwerde- und Incident-Prozesse: Schnellverfahren zur Meldung, Entfernung und Nachverfolgung sexueller Deepfakes, inklusive Zusammenarbeit mit Strafverfolgungsbehörden.


Außerhalb der EU ansässig – trotzdem betroffen

Die Marktortlogik des AI Act bleibt auch in der Revision erhalten: Entscheidend ist, ob

  • Systeme im EU‑Binnenmarkt in Verkehr gebracht werden oder

  • Dienste sich an Nutzer in der EU richten.


Damit müssen insbesondere

  • US‑Anbieter generativer KI,

  • globale App‑Stores,

  • API‑Plattformen


ihre Angebote für EU‑Nutzer anpassen. Praktisch bedeutet das häufig die Einführung eines dedizierten „EU‑Modus“ mit strengeren Guardrails oder das komplette Abschalten bestimmter Funktionen für europäische Nutzer.


Abgrenzungsfragen: Was bleibt zulässig?

Für Unternehmen ist die Trennlinie wichtig zwischen

  • vollständig verbotenen Systemen und

  • zulässigen, aber streng regulierten Anwendungen.


Mögliche zulässige Szenarien – vorbehaltlich der finalen Rechtsakte – sind zum Beispiel:

  • Forensische Tools zur Erkennung von Deepfakes, sofern sie keine sexuellen Inhalte erzeugen, sondern nur analysieren.

  • Content-Moderations- und Hashing-Systeme, die KI einsetzen, um sexuelle Deepfakes aufzuspüren und zu löschen.

  • Kreative Anwendungen mit rein synthetischen Avataren, bei denen weder reale Personen imitierbar sind noch Uploads realer Bilder als Grundlage dienen.


Hier wird die Detailarbeit der Trilog-Verhandlungen entscheidend sein. Unternehmen sollten ihre Argumente und Use‑Case‑Beschreibungen frühzeitig vorbereiten, um sich ggf. in Konsultationen oder Branchenverbänden einzubringen.


Strategische Implikationen für Unternehmen

  1. Zeitfenster nutzen: Die Überarbeitung der Verbotsliste soll bis April 2026 in der Kommission überprüft werden, der Ratsentwurf liegt jetzt auf dem Tisch. Das operative Inkrafttreten der neuen Verbote wird aber voraussichtlich erst nach einer Übergangsphase erfolgen. Dieses Zeitfenster ist der Moment, um Produkte und Roadmaps anzupassen.

  2. „Safety by Design“ als Wettbewerbsfaktor: Anbieter, die nachweisen können, dass ihre Modelle technisch gegen die Erstellung sexueller Deepfakes gehärtet sind, werden es leichter haben, die Konformität zu dokumentieren – und sich bei Kunden und Aufsichtsbehörden zu positionieren.

  3. Risiko-Portfoliomanagement: Für Konzerne mit mehreren KI‑Produkten kann es sinnvoll sein, besonders gefährdete Angebote (z. B. freizugängliche Bildgeneratoren) zu konsolidieren oder aus dem EU‑Markt zurückzuziehen, statt komplexe und teure Compliance‑Strukturen für Randprodukte aufzubauen.

  4. Schnittstelle Strafrecht – Plattformregulierung – AI Act: Unternehmen müssen damit rechnen, dass Verstöße gegen das Verbot sexueller Deepfakes künftig gleichzeitig


- AI‑Act‑Sanktionsrisiken,

- strafrechtliche Ermittlungen und

- Verfahren unter dem Digital Services Act

auslösen können. Eine integrierte Rechts- und Compliance-Strategie wird unverzichtbar.


Fazit

Das von der zyprischen Ratspräsidentschaft vorgelegte Verbot sexueller Deepfakes im Rahmen der AI‑Act‑Revision markiert eine klare Verschiebung: Weg von bloßer Transparenzpflicht, hin zu einem echten Produktverbot für bestimmte generative KI‑Systeme. Für Unternehmen mit Bild‑ und Video‑KI, Plattformen und Model‑Hosts bedeutet dies, dass die bisherige Praxis, Missbrauch primär über AGB und Moderation zu adressieren, nicht mehr ausreicht. Gefragt sind nun technische, organisatorische und strategische Anpassungen – idealerweise, bevor der revidierte AI Act endgültig steht.


Häufig gestellte Fragen (FAQ)


Was regelt die geplante EU-AI-Act-Revision zu sexuellen Deepfakes konkret?

Die AI-Act-Revision soll KI-Modelle und -Systeme ausdrücklich verbieten, die sexuelle Deepfakes, nicht-einvernehmliche sexuell explizite Inhalte oder intime Nacktdarstellungen erzeugen oder gezielt erleichtern. Damit würden solche Systeme als unzulässige Produkte im EU-Binnenmarkt eingestuft und dürften nicht mehr legal angeboten werden.


Welche Unternehmen und Geschäftsmodelle sind vom Verbot sexueller Deepfakes besonders betroffen?

Betroffen sind vor allem Anbieter generativer Bild- und Video-Tools mit Nackt- oder „Undressing“-Funktionen, offene Foundation-Modelle sowie Hosting-, Plattform- und Marktplatzdienste für KI-Modelle. Auch globale App-Stores, Werbenetzwerke und Cloud-Provider müssen prüfen, ob sie verbotene Systeme bereitstellen oder bewerben.


Wie wirkt sich das Verbot sexueller Deepfakes auf Nicht-EU-Anbieter aus?

Durch die Marktortlogik des AI Act gilt das Verbot auch für Anbieter außerhalb der EU, sobald sie ihre KI-Systeme im EU-Binnenmarkt anbieten oder sich an Nutzer in der EU richten. In der Praxis führt dies häufig zu einem speziellen „EU-Modus“ mit strengeren Guardrails oder sogar zur Deaktivierung bestimmter Funktionen für europäische Nutzer.


Welche technischen Maßnahmen sollten Unternehmen jetzt für KI-Bild- und Videosysteme umsetzen?

Unternehmen sollten Personen- und Nackterkennungs-Filter, robuste Wasserzeichen- und Logging-Konzepte sowie eine fein abgestimmte Prompt- und Output-Moderation implementieren. Zusätzlich sind Geo-Fencing und Feature-Gating sinnvoll, um sensible Funktionen im EU-Raum zu beschränken oder ganz zu sperren.


Was ist der Unterschied zwischen vollständig verbotenen KI-Systemen und zulässigen Anwendungen im Bereich Deepfakes?

Vollständig verboten sind KI-Systeme, die zur Erzeugung sexueller Deepfakes oder nicht-einvernehmlicher intimer Inhalte geeignet sind und dies nicht wirksam verhindern. Zulässig bleiben dagegen z. B. forensische Deepfake-Erkennungstools, Content-Moderationssysteme oder kreative Anwendungen mit rein synthetischen Avataren, sofern keine realen Personen imitierbar sind.


Welche Compliance- und Governance-Pflichten kommen mit der AI-Act-Revision auf Unternehmen zu?

Unternehmen müssen ihre Produkte systematisch gegen die Liste verbotener Praktiken prüfen, Risikoanalysen und Dokumentation aufsetzen und Nutzungsbedingungen sowie Verträge anpassen. Zudem brauchen sie klare Beschwerde- und Incident-Prozesse, um sexuelle Deepfakes schnell zu melden, zu entfernen und gegenüber Behörden zu handeln.


Was sollten Unternehmen kurzfristig strategisch tun, um sich auf das Verbot vorzubereiten?

Unternehmen sollten das aktuelle Übergangszeitfenster nutzen, um Produkt-Roadmaps anzupassen, risikoreiche Angebote zu konsolidieren und „Safety by Design“ als Kernprinzip in Entwicklung und Vermarktung zu verankern. Parallel lohnt sich die Vorbereitung von Use-Case-Beschreibungen und Argumenten, um sich in Konsultationen und Brancheninitiativen zur AI-Act-Umsetzung einzubringen.