EU-Ratspräsidentschaft Zypern drängt auf KI-Verbot für sexuelle Deepfakes: Was der neue AI-Act-Vorschlag für Unternehmen bedeutet
11.03.2026

Die zyprische EU-Ratspräsidentschaft hat in ihrem Mandatsentwurf zur Überarbeitung des AI Act ein explizites Verbot von KI-Systemen verankert, die nicht-einvernehmliche sexuelle Deepfakes erzeugen können. Damit reagieren Rat und Kommission auf Lücken im bisherigen Verbotsteil des AI Act, in dem sexualisierte Deepfakes bislang nicht eindeutig adressiert waren. Für Anbieter von generativen Bild- und Videomodellen, Plattformen, Werbe- und Content-Unternehmen steigen damit kurzfristig die regulatorischen Anforderungen an Architektur, Training, Output-Kontrolle, Moderation und Governance ihrer KI-Stacks in der EU.
EU-Ratspräsidentschaft Zypern drängt auf KI-Verbot für sexuelle Deepfakes: Was der neue AI-Act-Vorschlag für Unternehmen bedeutet
Politischer Kontext: Warum sexuelle Deepfakes jetzt zum Testfall für den AI Act werden
Die seit Januar 2026 amtierende zyprische EU-Ratspräsidentschaft hat in ihrem Entwurf für das Verhandlungsmandat zur AI-Act-Revision ein zentrales neues Element platziert: ein ausdrückliches Verbot von KI-Systemen, die nicht‑einvernehmliche sexuelle Deepfakes erzeugen können. Damit greift der Rat Forderungen aus Parlament und Zivilgesellschaft auf, nach denen der ursprüngliche AI Act sexuelle Deepfakes nicht klar genug adressiert hat.
Die EU-Kommission hat in einem Schreiben an Abgeordnete jüngst bestätigt, dass sexualisierte Deepfakes bislang nicht eindeutig unter die bestehenden Verbotskategorie des AI Act fallen. Parallel laufen Arbeiten an einer ersten Überprüfung der Liste verbotener und hochriskanter Anwendungsfälle, deren Ergebnisse für April 2026 angekündigt sind. Die zyprische Initiative setzt hier politisch den Ton und erhöht den Druck, Deepfake-Pornografie als „unannehmbares Risiko“ zu klassifizieren.
Was genau soll verboten werden?
Zielobjekt: Modelle und Systeme, nicht nur einzelne Inhalte
Der von Zypern eingebrachte Vorschlag zielt nicht primär auf einzelne Bilder oder Videos, sondern auf KI-Modelle und Systeme, die strukturell zur Erzeugung nicht‑einvernehmlicher sexueller Deepfakes geeignet sind. Entscheidend sind dabei drei Dimensionen:
Fähigkeit: Das System kann realistische, identifizierbare sexuelle Darstellungen echter Personen erzeugen.
Missbrauchsanfälligkeit: Es bestehen keine oder unzureichende technische und organisatorische Vorkehrungen, um Missbrauch zur Erstellung nicht‑einvernehmlicher Inhalte zu verhindern.
Nutzungszweck: Das System wird gezielt für sexualisierte Deepfakes angeboten oder beworben – etwa über spezialisierte „Face-Swap“- oder „Nude-Generator“-Funktionen.
Damit rückt nicht nur spezialisierte „Porn‑Deepfake‑Software“ ins Visier, sondern auch generative Bild- und Videomodelle, deren Anbieter keine angemessenen Schutzmechanismen gegen diese Nutzung implementieren.
Abgrenzung: Einvernehmliche Nutzung vs. Missbrauch
Für Unternehmen besonders relevant ist die Abgrenzung zwischen zulässiger und unzulässiger Nutzung:
Einvernehmliche Inhalte (z.B. Avatar-Erstellung, Erwachsenenunterhaltung mit klarer Zustimmung der Beteiligten) sollen möglich bleiben, fallen aber in aller Regel in Hochrisiko‑ oder streng regulierte Kategorien.
Nicht‑einvernehmliche Deepfakes – selbst wenn sie technisch als „User-Generated Content“ entstehen – werden als schwerer Grundrechtseingriff gewertet und sollen künftig unmittelbare Eingriffsbefugnisse gegenüber Anbietern der zugrunde liegenden KI ermöglichen.
Unternehmen müssen sich darauf einstellen, dass die Beweisführung für Einvernehmlichkeit (z.B. Consent-Workflows, KYC, vertragliche Zusicherungen) regulatorisch eingefordert werden kann.
Technische Konsequenzen für KI-Modelle und Plattformen
1. Modellarchitektur und Training
Für Anbieter generativer Bild- und Videomodelle bedeuten die Vorschläge:
Trainingdata-Governance: Dokumentation, inwieweit Trainingsdaten pornografisches oder sexualisiertes Material enthalten. Gegebenenfalls Verpflichtung, solche Daten zu minimieren oder auszuschließen.
Personenerkennung & Schutzlogik: Integration von Gesichtserkennung bzw. biometrischer Ähnlichkeitserkennung – allerdings nicht zur Identifizierung für Dritte, sondern zur Prävention: Erkennung, wenn reale Gesichter in sexualisierten Kontext gesetzt werden sollen, und anschließende Blockierung.
Spezialisierte Schutzfilter: Feingranulare „Safety Heads“ oder Klassifikatoren, die sexuelle Inhalte erkennen und auf Policy‑Regeln mappen (z.B. „Nacktheit + identifizierbares Gesicht + reale Person = blockieren“).
2. Prompt- und Output-Kontrolle
Konkrete Anforderungen, die sich abzeichnen:
Prompt-Filter: Blockieren von Kombinationen wie „make nude“, „undress“, „porn”, wenn gleichzeitig ein konkreter Name, ein Foto-Upload oder andere Identifizierungsmerkmale realer Personen genutzt werden.
Post-Generation-Checks: Zweite Schutzschicht nach der Generierung („output classifier“), die sexualisierte Inhalte mit hoher Wahrscheinlichkeit nicht ausliefert oder nur stark verfremdet.
Logging & Replay: Protokollierung problematischer Prompts und Outputs, um im Beschwerde- oder Ermittlungsfall nachvollziehen zu können, wie ein Deepfake entstanden ist.
3. Plattformmoderation und Workflows
Für Plattformbetreiber (soziale Netzwerke, Foren, Content-Hosting) ergeben sich zusätzliche Pflichten, die über den Digital Services Act hinausgehen können:
Beschleunigte Notice-&-Takedown-Prozesse speziell für sexuelle Deepfakes, inkl. Beweissicherung.
Proaktive Erkennung über Hashing, Perceptual Hashes und Bildähnlichkeits-Suche, um bereits bekannte Deepfakes zu erkennen und deren Re‑Uploads zu unterbinden.
Schnittstellen zur Strafverfolgung, da nicht‑einvernehmliche Deepfakes zunehmend als Form geschlechtsspezifischer Gewalt und digitaler Nötigung behandelt werden.
Governance- und Compliance-Folgen für Unternehmen
Kurzfristige Prioritäten (2026)
Unternehmen mit Sitz oder Marktpräsenz in der EU sollten kurzfristig folgende Schritte planen:
Inventory der KI-Systeme: Identifikation aller Modelle und Dienste, die Bild-, Video- oder Avatar-Generierung anbieten – auch intern genutzte Tools.
Risikoanalyse „NCII/Deepfakes“: Bewertung, inwieweit Systeme zur Erzeugung nicht‑einvernehmlicher intimer Inhalte missbraucht werden können.
Policy-Update: Überarbeitung interner AI-Policies und Nutzungsbedingungen, inklusive expliziter Verbote für sexuelle Deepfakes und Sanktionen für Verstöße.
Technical Safeguards: Roadmap für die Implementierung oder Verstärkung von Prompt-Filtern, Output-Klassifikatoren, Content-Hashing und Abuse-Detection.
Mittelfristige Anpassungen (bis Inkrafttreten überarbeiteter Regeln)
Design for Compliance: Neue KI-Produkte sollten von Beginn an mit Mehrschichten-Schutz (Prompt-Kontrolle, Modell-Safety, Post-Filter) geplant werden.
Vertragliche Ketten: B2B-Anbieter generativer Modelle müssen in Verträgen klar regeln, dass ihre Kunden keine Tools für sexuelle Deepfakes anbieten – inklusive Audit- und Kündigungsrechten.
Haftungs- und Versicherungsfragen: Prüfungen, ob bestehende Haftpflicht- und Cyberpolicen Schäden durch KI-generierte Deepfakes, Reputationsschäden und Rechtsverfolgung abdecken.
Praxisbeispiele: Wer konkret betroffen ist
Beispiel 1: Generatives Bildmodell für Marketing
Ein europäisches SaaS-Unternehmen bietet ein Bildmodell für Werbekampagnen an. Bisherige Safety-Maßnahmen beschränken sich auf einen einfachen NSFW-Filter. Unter den neuen Vorgaben drohen Risiken, wenn Nutzer:innen Fotos realer Personen hochladen und entkleidet darstellen lassen können.
Konsequenzen:
Einführung eines Upload-Checks für realistische Porträts.
Blockierung von Kombinationen aus Personenbildern und sexualisierten Prompts.
Anpassung der AGB, um die Nutzung für Deepfakes explizit zu untersagen.
Beispiel 2: Plattform für Creator-Avatare
Eine Plattform erlaubt Nutzer:innen, aus Selfies animierte Avatare zu erstellen, teils auch im Erwachsenenbereich. Ohne dokumentierte Einwilligungsprozesse ist schwer nachweisbar, ob alle Beteiligten der Verwendung ihrer Bilder zustimmen.
Konsequenzen:
Aufbau eines Consent-Management-Systems pro dargestellter Person.
Nachweisbare Alters- und Identitätsprüfung bei sexualisierten Inhalten.
Risiko, als verbotene Praxis eingestuft zu werden, falls Deepfake-Pornografie ein Kern-Use-Case ist.
Handlungsempfehlungen für Entscheider:innen
Early-Compliance statt Minimalansatz: Da der AI Act bereits gilt und nur präzisiert wird, sollten Unternehmen nicht auf das letzte Detail der Revision warten, sondern Schutzmaßnahmen jetzt umsetzen.
Interdisziplinäre Teams bilden: Rechtsabteilung, IT-Sicherheit, Data Science und Produktmanagement müssen gemeinsam eine „NCII/Deepfake“-Strategie definieren.
Monitoring der Trilog-Verhandlungen: Die konkrete Ausgestaltung des Verbots – z.B. Schwellenwerte und Ausnahmen – wird im Rat-Parlament-Kompromiss entschieden. Unternehmen sollten diese Entwicklung eng verfolgen und Szenarien vorbereiten.
Transparente Kommunikation: Nutzer:innen und Geschäftspartner sollten frühzeitig über neue Schutzmechanismen, Einschränkungen und Meldewege informiert werden, um Akzeptanz und Vertrauen zu sichern.
Fazit: Deepfake-Verbot als Lackmustest für verantwortliche KI
Die zyprische Ratspräsidentschaft macht sexuelle Deepfakes zum Schwerpunkt der AI-Act-Revision und adressiert damit eine sichtbare Lücke im bisherigen Regelwerk. Für Unternehmen mit generativen Bild- oder Videofunktionen bedeutet das nicht nur zusätzliche Compliance-Pflichten, sondern einen Strukturwandel in der Art, wie Modelle trainiert, abgesichert und in Plattformumgebungen integriert werden.
Wer frühzeitig in robuste Governance, Logging, Abuse-Detection und klare Consent-Mechanismen investiert, reduziert nicht nur regulatorische Risiken, sondern stärkt zugleich die eigene Position in einem Markt, der sich weg von „anything goes“ hin zu überprüfbarer, verantwortlicher KI-Nutzung bewegt.
Häufig gestellte Fragen (FAQ)
Was verbietet der neue AI-Act-Vorschlag konkret in Bezug auf sexuelle Deepfakes?
Der von der zyprischen Ratspräsidentschaft eingebrachte Vorschlag zielt auf KI-Modelle und -Systeme, die nicht-einvernehmliche sexuelle Deepfakes erzeugen können. Verboten werden sollen Systeme, die realistische sexuelle Darstellungen realer Personen ohne ausreichende Schutzmechanismen ermöglichen oder sogar gezielt für Deepfake-Pornografie angeboten werden.
Wie unterscheidet der AI-Act-Vorschlag zwischen einvernehmlichen und nicht-einvernehmlichen sexuellen Deepfakes?
Einvernehmliche Inhalte, etwa in der Erwachsenenunterhaltung mit klar dokumentierter Zustimmung, bleiben grundsätzlich möglich, fallen aber in risikoreiche und streng regulierte Kategorien. Nicht-einvernehmliche Deepfakes werden dagegen als schwerer Grundrechtseingriff eingestuft und sollen unmittelbare Eingriffe gegenüber den Anbietern der zugrunde liegenden KI-Systeme ermöglichen.
Welche technischen Anforderungen kommen auf Anbieter generativer KI-Modelle zu?
Anbieter müssen mit strengeren Vorgaben für Trainingsdaten, Schutzlogiken und Output-Kontrolle rechnen. Dazu gehören etwa Governance für sexualisierte Trainingsdaten, Erkennung von realen Gesichtern in sexualisiertem Kontext, spezialisierte Safety-Filter sowie Prompt- und Output-Filter, die die Erstellung sexueller Deepfakes blockieren.
Welche Auswirkungen hat das geplante Verbot sexueller Deepfakes auf Plattformbetreiber?
Plattformen müssen mit verschärften Moderationspflichten rechnen, die über bestehende Vorgaben wie den Digital Services Act hinausgehen können. Dazu gehören beschleunigte Takedown-Prozesse für sexuelle Deepfakes, proaktive Erkennung und Hashing von Inhalten sowie engere Kooperation mit Strafverfolgungsbehörden.
Worin unterscheidet sich der neue Vorschlag vom bisherigen AI Act in Bezug auf Deepfakes?
Im bisherigen AI Act waren sexualisierte Deepfakes nicht ausdrücklich als verbotene Praxis benannt und fielen nur unscharf unter andere Risikokategorien. Der neue Vorschlag schafft nun ein explizites Verbot für KI-Systeme, die nicht-einvernehmliche sexuelle Deepfakes ermöglichen, und schärft damit Haftung und Eingriffsmöglichkeiten gegenüber Anbietern.
Was sollten Unternehmen mit generativen Bild- oder Videofunktionen jetzt tun?
Unternehmen sollten kurzfristig ein Inventar ihrer KI-Systeme erstellen, das Missbrauchsrisiko für nicht-einvernehmliche intime Inhalte analysieren und klare Verbotsklauseln zu sexuellen Deepfakes in Policies und AGB verankern. Parallel sollten sie eine Roadmap für technische Sicherungen wie Prompt-Filter, Output-Klassifikatoren, Consent-Management und Abuse-Detection aufsetzen.
Welche Branchen sind von dem geplanten Deepfake-Verbot besonders betroffen?
Besonders betroffen sind Anbieter generativer Bild- und Videomodelle, Plattformen für User-Generated Content, Avatar- und Creator-Tools sowie Werbe- und Content-Dienstleister mit KI-Funktionen. Sie müssen ihre Produkte nach dem Prinzip „Design for Compliance“ anpassen, vertragliche Ketten absichern und ihre Governance- und Versicherungsstrukturen auf Deepfake-Risiken ausrichten.