EU-Rat einigt sich auf Verhandlungsmandat zum Digital Omnibus on AI: Was Unternehmen jetzt zu Hochrisiko‑Pflichten und neuen Verboten wissen müssen
13.03.2026

Der Rat der EU hat am 13.03.2026 sein Verhandlungsmandat zum „Digital Omnibus on AI“ beschlossen und damit zentrale Weichen für eine Anpassung des AI Act gestellt. Kernpunkte: zeitliche Neu-Staffelung der Hochrisiko-Pflichten mit Fristen bis Ende 2027/2028, explizite Verbote nicht-einvernehmlicher sexueller Deepfakes und von CSAM-generierender KI sowie verschärfte Registrierungspflichten für Hochrisiko-Systeme. Der Beitrag erläutert die wichtigsten Änderungen, zeigt konkrete Auswirkungen auf Investitionsplanung, Produkt-Roadmaps und Compliance-Setups und skizziert, wie Unternehmen sich jetzt strategisch ausrichten sollten.
EU-Rat einigt sich auf Verhandlungsmandat zum Digital Omnibus on AI: Was Unternehmen jetzt zu Hochrisiko‑Pflichten und neuen Verboten wissen müssen
Kontext: Warum der Digital Omnibus on AI gerade jetzt entscheidend ist
Mit der Verabschiedung des AI Act stehen viele Unternehmen in der EU kurz vor der praktischen Umsetzung – insbesondere bei Hochrisiko‑Systemen. Gleichzeitig wurde deutlich, dass technische Standards, Aufsichtsstrukturen und branchenspezifische Leitlinien dem ursprünglichen Zeitplan hinterherhinken. Um diese Lücke zu schließen, hat die EU-Kommission Ende 2025 den „Digital Omnibus on AI“ vorgeschlagen, der gezielt einzelne Bestimmungen des AI Act nachschärft und vereinfacht.
Am 13. März 2026 hat der Rat der EU nun seine Position („Allgemeine Ausrichtung“/Verhandlungsmandat) beschlossen. Damit können die Trilog-Verhandlungen mit dem Europäischen Parlament starten. Für Unternehmen ist dies ein Wendepunkt: Die Linie des Rates ist ein sehr verlässlicher Indikator dafür, welche Pflichten, Fristen und Verbote in wenigen Monaten real werden.
Kernänderungen bei Hochrisiko‑Pflichten
Neu gestaffelte Übergangsfristen
Zentraler Punkt des Ratsmandats ist eine zeitliche Neu-Staffelung der Hochrisiko‑Pflichten des AI Act:
Verschiebung des Vollanwendungsdatums für Hochrisiko‑Systeme: Statt eines einheitlichen Stichtags in 2026 sollen die strengsten Pflichten auf Ende 2027 bzw. 2028 gestreckt werden.
Phasenmodell: Bestimmte Grundpflichten (z.B. Risiko-Management, Daten-Governance) greifen früher, während besonders aufwendige Anforderungen (z.B. vollständige Konformitätsbewertung nach harmonisierten Normen, Registrierungspflichten) später scharf gestellt werden.
Kopplung an Kommissionsentscheidungen: Für ausgewählte Hochrisiko‑Kapitel soll die Anwendbarkeit daran geknüpft werden, dass die Kommission vorher feststellt, dass ausreichende Unterstützungsinstrumente (Standards, Leitfäden, Sandboxes) verfügbar sind.
Implikationen für Unternehmen:
Mehr Planungssicherheit bei komplexen Umsetzungsprojekten (insbesondere in Finanzdienstleistungen, Gesundheitswesen, kritischer Infrastruktur, HR‑Systemen).
Zeitgewinn für den Aufbau von internen AI-Governance-Strukturen, ohne den laufenden Betrieb zu gefährden.
Gleichzeitig steigt der Druck, diese zusätzlichen Monate nicht zu „verbrauchen“, sondern für geordnete Implementierungsprogramme zu nutzen.
Präzisere Guidance und Unterstützungsinstrumente
Parallel zur Fristverlängerung verankert das Ratsmandat den Auftrag an die Kommission, frühzeitig:
ausführliche Leitlinien zu zentralen Begriffen (z.B. „substanzielles Risiko“, „wesentliche Änderung eines Systems“),
Branchen-Use-Case-Beispiele für Hochrisiko‑Kategorien,
sowie Standardisierungspfade (inkl. Übergangslösungen, solange noch keine harmonisierten Normen existieren)
bereitzustellen.
Für Unternehmen bedeutet das:
Weniger Rechtsunsicherheit bei der Klassifizierung von Systemen,
klarere Anknüpfungspunkte für interne Policies, Checklisten und Tooling,
bessere Grundlage, um Haftungsrisiken gegenüber Aufsicht, Kunden und Geschäftspartnern zu bewerten.
Neue Verbote: Deepfakes und CSAM-generierende KI
Ein zweiter Schwerpunkt des Ratsmandats betrifft neue, explizite Verbotsnormen.
Nicht-einvernehmliche sexuelle Deepfakes
Der Rat positioniert sich für ein EU-weites Verbot von Systemen und Diensten, die primär dazu bestimmt sind,
nicht-einvernehmliche sexuelle Deepfakes zu erzeugen, zu verbreiten oder systematisch zu erleichtern.
Relevanz für Unternehmen:
Plattform‑, Hosting‑ und Content‑Moderationsanbieter müssen ihre Erkennungs- und Sperrmechanismen für entsprechende Inhalte deutlich schärfen.
Anbieter von generativen Bild‑ und Videomodellen benötigen strengere Nutzungsbedingungen, Monitoring- und Abuse-Detection-Prozesse, um nicht in den Anwendungsbereich des Verbots zu geraten.
Unternehmensintern eingesetzte generative Tools (z.B. in Marketing oder Kreativabteilungen) sind gefordert, Nutzungsrichtlinien, Logging und Schulungen nachzuziehen, um Missbrauch über Unternehmensaccounts auszuschließen.
CSAM-generierende KI (Darstellungen sexueller Gewalt gegen Kinder)
Besonders weitreichend ist die Position des Rates zu Systemen, die geeignet sind, CSAM (Child Sexual Abuse Material) zu erzeugen oder zu verbreiten:
Solche Systeme sollen ausnahmslos verboten werden.
Bereits das bewusste Bereitstellen von Modellen oder Diensten, die typischerweise für CSAM-Generierung missbraucht werden, kann in den Verbotsbereich fallen.
Konsequenzen:
Stärkere Due-Diligence-Pflichten in der Lieferkette: Unternehmen, die Foundation Models, API‑Dienste oder SaaS‑Angebote von Dritten nutzen, müssen Missbrauchsrisiken explizit prüfen.
Erwartbar sind engere Kooperationspflichten mit Strafverfolgungsbehörden und Meldestellen.
Anbieter generativer Modelle müssen Trainingsdaten, Content-Filter und Output-Moderation so gestalten, dass CSAM-Erzeugung technisch weitgehend unterbunden wird und Verstöße forensisch nachvollziehbar sind.
Wieder verschärfte Registrierungspflichten für Hochrisiko‑Systeme
Im Verhandlungsmandat des Rates ist zudem vorgesehen, die ursprünglich vorgesehenen, in den politischen Kompromissen aber teils abgeschwächten Registrierungspflichten für Hochrisiko‑Systeme wieder anzuziehen:
Zentrale EU‑Datenbank: Hochrisiko‑Systeme sollen konsequenter in einer europäischen Datenbank registriert werden.
Erweiterter Mindestinhalt: Neben Basisangaben (Zweck, Anbieter, Konformitätsverfahren) werden voraussichtlich zusätzliche Informationen zu Trainingsdatenkategorien, Haupt-Risikoannahmen und wesentlichen Limitierungen verlangt.
Laufende Aktualisierungspflichten bei wesentlichen Updates oder Zweckänderungen.
Für Unternehmen heißt das konkret:
Höherer Initialaufwand bei der Inverkehrbringung bzw. wesentlichen Änderung von Hochrisiko‑Systemen.
Gleichzeitiger Transparenzgewinn gegenüber Aufsicht, Kunden und Geschäftspartnern (z.B. bei Ausschreibungen oder Vendor-Risikoanalysen).
Notwendigkeit, saubere Prozessketten für Produkt- und Release-Management aufzubauen, damit jede relevante Änderung auch regulatorisch abgebildet wird.
Praktische Auswirkungen auf Investitionsplanung und Roadmaps
Szenario 1: Konzern mit Hochrisiko‑HR‑Systemen (Recruiting, Scoring)
Ein europaweit tätiger Dienstleister plant, KI-gestützte Recruiting- und Scoring-Systeme bis 2026 flächendeckend auszurollen.
Durch die verlängerten Fristen kann der Rollout technisch wie geplant erfolgen, während parallel ein schrittweises AI‑Compliance-Programm bis Ende 2027/2028 umgesetzt wird.
Die verschärften Registrierungspflichten erfordern jedoch, Releases zu bündeln und ein zentrales Register aller relevanten Modelle und Use Cases aufzubauen.
Das Verbot nicht-einvernehmlicher sexueller Deepfakes zwingt die Plattform, klare Nutzungsregeln für von Bewerbern hochgeladene Medien sowie robuste Moderationsprozesse zu etablieren.
Szenario 2: SaaS-Anbieter mit generativer Bild‑API
Ein mittelgroßer Anbieter stellt Unternehmen eine generative Bild‑API zur Verfügung.
Er muss seine Terms of Service explizit auf Deepfakes und CSAM hin ausrichten, technische Sperren für einschlägige Prompts implementieren und Missbrauchs-Monitoring betreiben.
Sollte die API in Hochrisiko‑Kontexten (z.B. Medizin, kritische Infrastruktur) genutzt werden, entstehen zusätzliche Dokumentations-, Registrierungs- und Auditpflichten.
Die gestreckten Fristen geben Luft, die technische Architektur so zu modernisieren, dass künftig Compliance-by-Design (Logging, Traceability, Risk Dashboards) unterstützt wird.
Handlungsempfehlungen für Unternehmen
1. Audit der AI‑Use‑Cases gegen Hochrisiko‑Kategorien
Unternehmen sollten kurzfristig eine Bestandsaufnahme durchführen:
Welche aktuellen und geplanten Use Cases fallen sicher oder wahrscheinlich in Hochrisiko‑Kategorien?
Welche Systeme könnten durch die neuen Verbote (Deepfakes, CSAM) zumindest Randberührung haben (z.B. generative Tools, Content-Plattformen, Bild- oder Video-APIs)?
2. Aufbau eines AI‑Governance‑Rahmens bis spätestens 2027
Auch wenn die volle Pflichtenlast später greift, ist der Zeitraum bis Ende 2027/2028 knapp:
Etablierung eines AI‑Governance-Boards oder entsprechender Gremien,
Definition von Policies, Rollen und Verantwortlichkeiten (Produkt, Legal, Compliance, IT, Security),
Einführung von Standardprozessen für Risikoanalysen, Dokumentation, Registrierung und Incident‑Handling.
3. Vertrags- und Lieferkettenmanagement anpassen
Aufnahme klarer AI‑Compliance-Klauseln in Verträge mit Modell‑ und Service‑Anbietern (u.a. zu Missbrauchsprävention, Logging, Kooperationspflichten bei Ermittlungen).
Prüfung, ob bestehende Vereinbarungen ausreichend Schutz bieten, falls Drittanbieter-Modelle in verbotene Nutzungen geraten.
4. Produkt-Roadmaps mit regulatorischen Meilensteinen verknüpfen
Feature-Releases sollten mit den erwarteten Regelungszeitpunkten (Ende 2027/2028) synchronisiert werden.
Budget- und Ressourcenplanung sollte AI‑Compliance als eigenen Workstream mit klaren Deliverables (z.B. Registrierungsfähigkeit, Audit-Trails, Risiko-Dossiers) enthalten.
Ausblick: Nächste Schritte im Gesetzgebungsprozess
Mit dem heutigen Ratsmandat beginnt die eigentliche Trilogphase mit dem Parlament. Angesichts des engen Zeitfensters bis zum Greifen der AI‑Act‑Pflichten ist mit beschleunigten Verhandlungen zu rechnen.
Für Unternehmen bedeutet dies:
Die großen Linien – spätere Hochrisiko‑Anwendung, neue Verbote, stärkere Registrierung – sind nun politisch gesetzt.
Detailfragen (z.B. exakte Fristen, Ausnahmen für KMU, Umfang der Meldepflichten) können sich in den kommenden Monaten noch verschieben, werden aber voraussichtlich innerhalb des hier skizzierten Rahmens bleiben.
Wer jetzt mit strukturierter Vorbereitung beginnt, kann die verlängerten Fristen nutzen, um KI‑Innovationen und Compliance in Einklang zu bringen – statt 2027/2028 unter maximalem Zeitdruck reagieren zu müssen.
Häufig gestellte Fragen (FAQ)
Was ist der Digital Omnibus on AI und wie hängt er mit dem EU AI Act zusammen?
Der Digital Omnibus on AI ist ein Gesetzgebungsvorschlag der EU-Kommission, der einzelne Bestimmungen des bereits verabschiedeten AI Act nachschärfen und vereinfachen soll. Er ergänzt den AI Act insbesondere bei Hochrisiko-Pflichten, neuen Verboten und Registrierungspflichten und passt Zeitpläne sowie Unterstützungsinstrumente an die Praxis an.
Wie verändern sich die Pflichten und Fristen für Hochrisiko-KI-Systeme durch das Ratsmandat?
Das Verhandlungsmandat des EU-Rats sieht vor, dass zentrale Hochrisiko-Pflichten zeitlich gestaffelt und auf Ende 2027 bzw. 2028 verschoben werden. Grundpflichten wie Risiko-Management und Daten-Governance greifen früher, während komplexere Anforderungen wie vollständige Konformitätsbewertungen und Registrierungspflichten später Anwendung finden und teilweise an verfügbare Standards und Leitlinien gekoppelt werden.
Welche neuen Verbote für KI-Systeme zu Deepfakes und CSAM sind vorgesehen?
Der Rat befürwortet ein ausdrückliches Verbot von KI-Systemen und Diensten, die primär der Erzeugung oder Verbreitung nicht-einvernehmlicher sexueller Deepfakes dienen. Zudem sollen KI-Systeme, die geeignet sind, Darstellungen sexueller Gewalt gegen Kinder (CSAM) zu erzeugen oder zu verbreiten, ausnahmslos verboten werden, inklusive des bewussten Bereitstellens entsprechend missbrauchsanfälliger Modelle oder Dienste.
Welche Auswirkungen haben die geplanten Regelungen auf Unternehmen mit generativer KI oder Plattformdiensten?
Unternehmen mit generativen Bild- oder Videomodellen sowie Plattform‑ und Hostingdiensten müssen ihre Nutzungsbedingungen, Abuse-Detection-Mechanismen und Content-Moderation deutlich verschärfen. Sie sind gefordert, technische Sperren, Monitoring und klare interne Richtlinien einzuführen, um Missbrauch zu Deepfakes oder CSAM zu verhindern und gleichzeitig forensische Nachvollziehbarkeit sicherzustellen.
Was ändert sich bei den Registrierungspflichten für Hochrisiko-KI-Systeme?
Der EU-Rat will die Registrierungspflichten wieder verschärfen und eine konsequent genutzte zentrale EU-Datenbank für Hochrisiko-Systeme etablieren. Neben Basisangaben werden voraussichtlich zusätzliche Informationen zu Trainingsdatenkategorien, Risikoannahmen, Limitierungen und laufende Aktualisierungspflichten bei wesentlichen Änderungen verlangt, was den Dokumentationsaufwand, aber auch die Markttransparenz erhöht.
Was sollten Unternehmen jetzt konkret tun, um sich auf den Digital Omnibus on AI vorzubereiten?
Unternehmen sollten kurzfristig eine Bestandsaufnahme aller KI-Use-Cases hinsichtlich Hochrisiko-Kategorien und möglicher Berührungspunkte mit den neuen Verboten durchführen. Parallel empfiehlt sich der Aufbau eines AI-Governance-Rahmens mit klaren Rollen, Prozessen für Risikoanalysen, Dokumentation und Registrierung sowie die Anpassung von Verträgen, Lieferkettenmanagement und Produkt-Roadmaps an die erwarteten Fristen bis 2027/2028.
Wie geht der EU-Gesetzgebungsprozess zum Digital Omnibus on AI nun weiter und wie sicher ist der aktuelle Stand für Unternehmen?
Mit dem Ratsmandat vom 13. März 2026 beginnen die Trilog-Verhandlungen zwischen Rat, Parlament und Kommission, die voraussichtlich beschleunigt geführt werden. Auch wenn Detailfragen wie exakte Fristen oder KMU-Ausnahmen noch angepasst werden können, gelten die Grundlinien – spätere Hochrisiko-Anwendung, neue Verbote und stärkere Registrierung – bereits jetzt als politisch weitgehend gesetzt und sollten in der Unternehmensplanung berücksichtigt werden.