EU-Kommission verpasst Frist für AI-Act-Leitlinien zu Hochrisiko-KI: Was Unternehmen jetzt ohne Guidance tun müssen

02.02.2026

Zum 2. Februar 2026 hätte die EU-Kommission Leitlinien zur praktischen Umsetzung von Artikel 6 AI Act – inklusive Vorgaben zum Post-Market-Monitoring von Hochrisiko-KI – veröffentlichen müssen. Die Frist ist verstrichen, während der Anwendungsstart der Hochrisiko-Pflichten zum 2. August 2026 unverändert bleibt. Der Beitrag analysiert, welche Lücken dadurch in der Compliance-Planung entstehen, welche Risiken frühe Implementierungen bergen und wie Unternehmen ihre Roadmaps jetzt trotzdem belastbar aufsetzen können.

EU-Kommission verpasst Frist für AI-Act-Leitlinien zu Hochrisiko-KI: Was Unternehmen jetzt ohne Guidance tun müssen

Die Frist war klar: Bis zum 2. Februar 2026 sollte die EU-Kommission zentrale Leitlinien zur praktischen Umsetzung von Artikel 6 des AI Act vorlegen – insbesondere zur Einstufung von Hochrisiko-KI und zu Anforderungen an das Post-Market-Monitoring. Diese Leitlinien liegen trotz des Stichtags nicht vor. Gleichzeitig bleibt der 2. August 2026 als Anwendungsstart für die Hochrisiko-Pflichten im Gesetz unverändert.

Für Unternehmen entsteht damit ein sechsmonatiges Zeitfenster, in dem sie hochkomplexe Compliance-Strukturen für Hochrisiko-KI aufbauen müssen, ohne die eigentlich angekündigte Detail-Guidance zu haben. Der Artikel ordnet ein, was konkret fehlt, welche Unsicherheiten daraus folgen und welche pragmatischen Schritte Organisationen jetzt gehen sollten.


1. Kontext: Was war zum 2. Februar 2026 vorgesehen?


1.1 Rolle von Artikel 6 AI Act

Artikel 6 AI Act ist der zentrale Anknüpfungspunkt zur Frage, welche KI-Systeme als „Hochrisiko“ gelten. Für diese Systeme gelten ab August 2026 umfangreiche Pflichten, unter anderem:

  • strikte Anforderungen an Datenqualität und Governance,

  • ein umfassendes Risikomanagementsystem über den gesamten Lebenszyklus,

  • technische Dokumentation und Transparenzanforderungen,

  • menschliche Aufsicht und Interventionsmöglichkeiten,

  • Cybersicherheits- und Robustheitsanforderungen,

  • Post-Market-Monitoring sowie Meldepflichten bei schwerwiegenden Vorfällen.


Artikel 6 verweist dabei auf mehrere Anhänge des AI Act (insbesondere Anhang III mit typischen Hochrisiko-Anwendungsfällen) und auf ergänzende Kriterien, wann ein System aufgrund seiner Funktion, seines Einsatzkontexts oder seiner Kombination mit anderen Produkten als Hochrisiko einzustufen ist.


1.2 Erwartete Leitlinien der EU-Kommission

Die EU-Kommission hatte sich im Rahmen der Umsetzungsplanung dazu verpflichtet, bis zum 2. Februar 2026 Leitlinien zu veröffentlichen, die im Kern drei Fragen adressieren sollten:

  1. Präzisierung der Einstufung nach Artikel 6


– Wie sind bestehende Kategorien von Anhang-III-Systemen auszulegen?

– Unter welchen Umständen wird aus einem „Limited-Risk“-System faktisch ein Hochrisiko-System (z. B. durch Integration in kritische Infrastrukturen)?

  1. Operationalisierung von Post-Market-Monitoring (PMM)


– Welche Mindestinhalte muss ein PMM-Plan haben?

– Welche Daten sollten Anbieter und Betreiber systematisch erfassen (z. B. Performance, Fehlerraten, Beschwerden, Sicherheitsvorfälle)?

– Wie ist das Zusammenspiel zwischen Anbieter, Importeur, Händler und nachgelagerten Nutzern organisiert?

  1. Schnittstellen zu bestehenden Sektornormen


– Wie verhält sich das AI-spezifische Risikomanagement zu bestehenden Normen (z. B. ISO/IEC 42001, ISO 14971 im Medizinbereich, IEC 61508 in der Industrie)?

– In welchen Bereichen sollen harmonisierte Normen die Vermutungswirkung für Konformität auslösen?

Diese Punkte sind für Unternehmen nicht nur juristisch interessant, sondern operativ entscheidend: Ohne sie bleibt unklar, wie detailliert Risikoanalysen, Monitoringprozesse und Dokumentation ausgestaltet sein müssen, um bei Audits und Marktaufsicht zu bestehen.


1.3 Faktische Situation am 2. Februar 2026

Am 2. Februar 2026 ist die Frist verstrichen, ohne dass die angekündigten Leitlinien publiziert wurden. Die offiziellen Umsetzungsfahrpläne und Timelines der EU zeigen an dieser Stelle weiterhin einen offenen Status. Für Unternehmen bedeutet das:

  • Der AI Act gilt weiterhin mit unverändertem Zeitplan.

  • Die Pflichten für Hochrisiko-KI treten zum 2. August 2026 in Kraft.

  • Die Detail-Guidance für Artikel 6 und Post-Market-Monitoring fehlt.


Damit verschärft sich das Spannungsfeld zwischen rechtlicher Verbindlichkeit und praktischer Umsetzbarkeit.


2. Analyse: Wo entstehen jetzt konkrete Unsicherheiten?


2.1 Einstufung: Was ist tatsächlich „Hochrisiko“?

Ohne Leitlinien bleibt Spielraum bei der Frage, ob bestimmte KI-Anwendungen tatsächlich als Hochrisiko einzustufen sind oder nicht. Kritisch sind insbesondere Grenzfälle:

  • B2B-KI-Tools, die zwar nicht direkt sicherheitskritische Entscheidungen treffen, aber in kritische Prozesse eingebunden sind (z. B. Entscheidungsunterstützung in der Netzleitwarte eines Energieversorgers).

  • Generative KI, die in Workflows eingesetzt wird, die in Anhang III auftauchen (z. B. Unterstützung bei Personalentscheidungen, Kredit-Scoring, Gesundheitsanamnese).

  • Up- und Downstream-Akteure in KI-Wertschöpfungsketten: Wann wird ein Modellbetreiber oder Integrator selbst zum Hochrisiko-Anbieter im Sinne des Gesetzes?


Unternehmen müssen aktuell mit eigener juristischer Auslegung und Risikoabwägung arbeiten. Das erhöht die Wahrscheinlichkeit, dass Aufsichtsbehörden bestimmte Konstellationen später anders bewerten.


2.2 Post-Market-Monitoring: Tiefe und Umfang unklar

Der AI Act schreibt Post-Market-Monitoring für Hochrisiko-Systeme verbindlich vor. Ohne Leitlinien ist jedoch offen:

  • in welcher Granularität Einsatz- und Performance-Daten gesammelt werden müssen,

  • wie stark Anbieter in die Monitoringpflicht für nachgelagerte Nutzer (z. B. Kunden in anderen Mitgliedstaaten) einbezogen sind,

  • wie detailliert Berichte gegenüber den Marktüberwachungsbehörden gestaltet sein müssen,

  • welche Schwellenwerte eine Meldung „schwerwiegender Vorfälle“ auslösen.


Dies führt zu einem typischen Dilemma:

  • Minimalansatz: Unternehmen riskieren, dass ihre Maßnahmen später als unzureichend gelten und nachgebessert werden müssen.

  • Maximalansatz: Unternehmen investieren früh in sehr umfangreiche Monitoring-Infrastrukturen, die später als überdimensioniert oder in Details nicht konform zur finalen Guidance angesehen werden.


2.3 Projekt- und Budgetplanung unter Unsicherheit

Die meisten Unternehmen planen AI-Act-Compliance als mehrjähriges Transformationsprogramm mit:

  • Anpassung von Entwicklungsprozessen (SDLC),

  • Aufbau von Governance-Strukturen, Gremien und Rollen (z. B. AI Compliance Officer),

  • Einführung neuer Toolchains für Dokumentation, Modellüberwachung und Incident-Management.


Die fehlenden Leitlinien erzeugen mehrere Planungsrisiken:

  • Fehlinvestitionen: Tools und Prozesse werden eingeführt, die später nicht (voll) auf regulatorische Anforderungen einzahlen.

  • Engpassrisiken: Wenn viele Unternehmen mit Anpassungen warten, steigt der Druck im zweiten Halbjahr 2026, was Beratungs- und Implementierungskapazitäten verknappen kann.

  • Reputationsrisiken: Früh implementierte Lösungen könnten nach Veröffentlichung der Leitlinien als nicht mehr „Best Practice“ gelten und müssen öffentlich angepasst werden.


2.4 Governance und Haftung

Unternehmensintern stellt sich zunehmend die Frage, wer bei Fehleinschätzungen verantwortlich ist:

  • Boards und Geschäftsführungen müssen entscheiden, wie konservativ oder risikofreudig die Einstufung von Systemen erfolgt.

  • Rechtsabteilungen und Compliance-Teams müssen Positionen vertreten, die nur bedingt durch offizielle Guidance abgesichert sind.

  • Produkt- und Entwicklungsteams brauchen klare Rahmenbedingungen, um Prioritäten zu setzen.


Die fehlende EU-Guidance erhöht damit nicht nur rechtliche, sondern auch organisatorische und politische Spannungen im Unternehmen.


3. Praktische Beispiele: Wie sich die Unsicherheit in der Praxis zeigt


3.1 Beispiel 1: KI-gestütztes Bewerbermanagement in einem DAX-Konzern

Ein großer Industrie- oder Technologiekonzern setzt bereits seit 2024 Machine-Learning-Modelle ein, um Bewerbungen zu präsortieren und geeignete Kandidaten zu identifizieren. Der Anwendungsbereich „Zugang zu Beschäftigung“ ist typischerweise in Anhang III als Hochrisiko eingestuft.

Konkrete Herausforderungen ohne Leitlinien:

  • Unklar ist, ob auch rein unterstützende Systeme (Ranking, Clustering, Hinweise) ohne automatisierte Endentscheidung voll als Hochrisiko gelten.

  • Der Konzern muss entscheiden, ob er das komplette Setup – inklusive Daten-Governance, Dokumentation und Monitoring – bereits jetzt wie ein Hochrisiko-System behandelt.

  • Das Post-Market-Monitoring müsste u. a. Diskriminierungsindikatoren, Performance-Metriken nach Subgruppen und Beschwerdedaten erfassen. Ohne Guidance ist unklar, welche Kennzahlen und Intervalle erwartet werden.


Mögliche Strategie:

  • Einstufung als Hochrisiko im Zweifel proaktiv annehmen.

  • PMM entlang etablierter Fairness- und Bias-Metriken (z. B. Demographic Parity, Equal Opportunity) aufsetzen.

  • Prozesse so dokumentieren, dass spätere Anpassungen möglich bleiben (modulare Monitoring-Pipelines, flexible Reporting-Templates).


3.2 Beispiel 2: Predictive Maintenance in kritischer Infrastruktur

Ein Energieversorger nutzt KI, um Ausfallwahrscheinlichkeiten von Transformatoren in Umspannwerken zu prognostizieren. Das System liefert Empfehlungen, wann Wartungen durchgeführt werden sollten.

Unsicherheiten:

  • Fällt das System unter Hochrisiko, wenn die finale Wartungsentscheidung formal bei einem Menschen liegt, faktisch aber stark durch die KI beeinflusst wird?

  • In welchem Umfang müssen auch Falsch-Positiv-Fälle (übervorsichtige Wartungsempfehlungen) im Monitoring erfasst werden, wenn sie wirtschaftliche, aber keine unmittelbaren Sicherheitsfolgen haben?


Relevante Überlegungen:

  • Das Unternehmen wird sich tendenziell an einem konservativen Szenario orientieren und das System als Hochrisiko behandeln, sobald es einen Einfluss auf die Verfügbarkeit kritischer Infrastruktur hat.

  • Das PMM wird nicht nur technische Ausfälle, sondern auch Near-Miss-Ereignisse und Workarounds der Ingenieure dokumentieren müssen, um die reale Nutzung und Umgehung der KI abzubilden.


3.3 Beispiel 3: SaaS-Anbieter eines generativen KI-Copiloten

Ein europäischer SaaS-Anbieter stellt Unternehmen einen generativen KI-Copiloten bereit, der in verschiedene Business-Anwendungen integriert werden kann (z. B. ERP, HR, CRM). Der Anbieter selbst hat keinen direkten Einfluss darauf, in welchem Kontext seine Kunden den Copiloten einsetzen.

Problemlage ohne Leitlinien:

  • Einzelne Kunden integrieren den Copiloten in Prozesse, die typischerweise Hochrisiko-Bereiche betreffen (z. B. Kreditvergabe, Personalentscheidungen).

  • Der SaaS-Anbieter stellt die Basistechnologie bereit, agiert aber nicht als alleiniger „Anbieter“ des finalen Hochrisiko-Systems.


Offene Fragen:

  • Welche Monitoringpflichten treffen den SaaS-Anbieter im Rahmen des AI Act?

  • Muss er selbst ein Hochrisiko-PMM etablieren oder kann er die Verantwortung vollständig an den Integrator/Endkunden delegieren?


Pragmatische Antwort aktuell:

  • Viele Anbieter werden ein Basismonitoring für das Modell (Performance, Fehlerraten, sicherheitsrelevante Vorfälle) aufbauen.

  • Sie werden vertraglich regeln, dass Kunden für den Einsatz in Hochrisiko-Kontexten ein eigenes PMM aufsetzen und bestimmte Reportingpflichten gegenüber dem SaaS-Anbieter übernehmen.


4. Business-Relevanz: Was Unternehmen jetzt konkret tun sollten


4.1 Keine Wartestrategie: Vorbereitung mit 6 Monaten Vorlauf ist knapp

Zwischen dem verpassten Stichtag 2. Februar 2026 und dem Start der Hochrisiko-Pflichten am 2. August 2026 liegen nur sechs Monate. Für die Einführung oder Anpassung eines umfassenden AI-Governance-Frameworks ist dies ein sehr enger Zeitrahmen.

Eine reine Wartestrategie („Wir handeln erst, wenn die Leitlinien da sind“) ist für Unternehmen mit signifikanten Hochrisiko-Expositionen nicht vertretbar. Sinnvoller ist ein zweistufiger Ansatz:

  1. Jetzt eine robuste, normnahe Mindestarchitektur aufsetzen.

  2. Später zielgerichtete Anpassungen vornehmen, sobald die EU-Leitlinien vorliegen.


4.2 Orientierung an bestehenden Normen und Best Practices

In Abwesenheit offizieller Leitlinien bietet sich eine Ausrichtung an bestehenden Standards an, die voraussichtlich als Referenz dienen werden, etwa:

  • Managementsysteme für KI (z. B. ISO/IEC 42001),

  • Risikomanagementstandards (ISO 31000, ISO 14971 für Medizinprodukte),

  • Datenschutz- und Informationssicherheitsstandards (ISO/IEC 27001, 27701),

  • branchenbezogene Sicherheits- und Qualitätsnormen.


Unternehmen können auf dieser Basis ein AI-Risikomanagement etablieren, das später mit verhältnismäßig geringem Aufwand gegen die EU-Leitlinien gespiegelt und angepasst werden kann.


4.3 Interne Klassifikationslogik für KI-Systeme aufbauen

Unabhängig von der finalen EU-Guidance brauchen Unternehmen eine interne Taxonomie für KI-Systeme, z. B. in vier Stufen:

  1. Kein oder sehr geringes Risiko (z. B. interne Produktivitätstools ohne Personenbezug),

  2. Begrenztes Risiko (z. B. Marketing-Optimierung mit begrenzten Effekten auf Betroffene),

  3. Potentiell Hochrisiko (z. B. Systeme mit Einfluss auf Zugang zu Beschäftigung, Bildung, Finanzprodukten),

  4. Eindeutig Hochrisiko (z. B. sicherheitskritische Steuerung, Systeme in regulierten Hochrisiko-Sektoren).


Für Stufe 3 sollten Unternehmen bereits jetzt so planen, als ob diese Anwendungen ab August 2026 voll in den Hochrisiko-Bereich fallen.


4.4 Mindestanforderungen an Post-Market-Monitoring definieren

Auch ohne Leitlinien lassen sich Mindestanforderungen an PMM formulieren, die mit hoher Wahrscheinlichkeit kompatibel sein werden:

  • Klare Definition von Key Risk Indicators (KRIs) pro System (z. B. Fehlerraten, Abweichungen von erwarteten Output-Verteilungen, Bias-Indikatoren, Sicherheitsvorfälle).

  • Etablierung eines Incident-Management-Prozesses, der KI-bezogene Vorfälle erfasst, bewertet und eskaliert.

  • Regelmäßige Review-Zyklen (z. B. quartalsweise) zur systematischen Auswertung der Monitoring-Daten.

  • Dokumentation aller Änderungen am Modell, den Trainingsdaten sowie am Einsatzkontext.


Entscheidend ist, diese Prozesse so zu gestalten, dass sie flexibel erweitert oder fokussiert werden können, sobald die EU-Leitlinien konkrete Vorgaben machen.


4.5 Vertragsmanagement und Rollenklärung in der Wertschöpfungskette

Unternehmen, die KI-Technologie beziehen oder bereitstellen, sollten frühzeitig ihre vertraglichen Regelungen auf AI-Act-Fähigkeit prüfen:

  • Wer gilt als „Anbieter“ eines Hochrisiko-Systems im Sinne des AI Act?

  • Welche Daten und Reports müssen entlang der Wertschöpfungskette bereitgestellt werden (z. B. vom Modellanbieter an den Integrator, vom Integrator an den Endanwender)?

  • Wie werden Pflichten zu Logging, Monitoring und Incident-Reporting verteilt?


Je klarer diese Rollen jetzt definiert werden, desto einfacher wird die spätere Anpassung an formelle EU-Leitlinien.


4.6 Organisatorische Verankerung: Verantwortlichkeiten festlegen

Auch ohne finale Guidance sollten Unternehmen folgende Rollen und Strukturen konkret benennen:

  • Verantwortliche Stelle für AI-Compliance (z. B. im Rechts- oder Compliance-Bereich verankert),

  • Technisches AI-Governance-Gremium, das Architektur- und Modellentscheidungen prüft,

  • Schnittstellen zu Datenschutz, Informationssicherheit und Risikomanagement.


Diese Strukturen sind unabhängig von Detailfragen der Leitlinien nötig und schaffen die Grundlage, um neue Anforderungen schnell zu absorbieren.


5. Fazit und Handlungsempfehlungen

Die EU-Kommission hat die selbst gesetzte Frist zur Veröffentlichung von Leitlinien zu Artikel 6 AI Act und zum Post-Market-Monitoring für Hochrisiko-KI am 2. Februar 2026 verpasst. Für Unternehmen entsteht dadurch eine spürbare Unsicherheit – der gesetzliche Zeitplan bleibt jedoch bestehen. Wer jetzt abwartet, riskiert operative Hektik, Mehraufwände und potenzielle Compliance-Lücken im Jahr 2026.

Unternehmen sind gut beraten, den Zeitraum bis zur Veröffentlichung der Leitlinien aktiv zu nutzen, um eine robuste, aber anpassungsfähige AI-Governance aufzubauen. Ziel ist nicht maximale Perfektion im ersten Schritt, sondern ein solides Fundament, das sich schnell nachschärfen lässt, sobald die regulatorischen Details vorliegen.

Kernpunkte auf einen Blick:

  • Die Frist der EU-Kommission für Leitlinien zu Artikel 6 und Post-Market-Monitoring ist am 2. Februar 2026 verstrichen; der Anwendungsstart der Hochrisiko-Pflichten am 2. August 2026 bleibt bestehen.

  • Unternehmen müssen Einstufung und Monitoring von Hochrisiko-KI aktuell auf Basis eigener Auslegung, bestehender Normen und branchenüblicher Best Practices gestalten.

  • Eine reine Wartestrategie ist für Organisationen mit relevanter Hochrisiko-Exposition nicht tragfähig – jetzt ist der Zeitpunkt, Mindestarchitekturen für AI-Governance und PMM zu etablieren.

  • Interne Klassifikationslogiken, vertragliche Rollenklärung in der KI-Wertschöpfungskette und organisatorische Verantwortlichkeiten können bereits heute zukunftsfest definiert werden.

  • Systeme sollten eher konservativ als Hochrisiko eingestuft und mit flexiblen Monitoring- und Dokumentationsprozessen hinterlegt werden, um spätere Anpassungen an die verspäteten Leitlinien zu erleichtern.


Häufig gestellte Fragen (FAQ)


Was regelt der AI Act in Bezug auf Hochrisiko-KI und warum ist Artikel 6 so wichtig?

Der AI Act legt für Hochrisiko-KI-Systeme umfangreiche Pflichten zu Datenqualität, Risikomanagement, Dokumentation, menschlicher Aufsicht, Cybersicherheit und Post-Market-Monitoring fest. Artikel 6 ist der zentrale Dreh- und Angelpunkt, weil er bestimmt, welche KI-Systeme überhaupt als Hochrisiko eingestuft werden und damit diesen strengen Anforderungen unterliegen.


Was bedeutet es für Unternehmen, dass die EU-Kommission die Leitlinien zu Artikel 6 und Post-Market-Monitoring nicht rechtzeitig veröffentlicht hat?

Das Verpassen der Frist zum 2. Februar 2026 führt dazu, dass Unternehmen ihre Hochrisiko-Compliance ohne offizielle Detail-Guidance planen müssen. Gleichzeitig bleibt der Starttermin der Hochrisiko-Pflichten am 2. August 2026 unverändert, sodass Unternehmen unter erheblichem Zeitdruck Entscheidungen auf Basis eigener Auslegung und bestehender Normen treffen müssen.


Wie können Unternehmen Hochrisiko-KI aktuell einstufen, wenn die EU-Leitlinien fehlen?

Unternehmen sollten auf den Wortlaut des AI Act, Anhang III sowie den konkreten Einsatzkontext der KI-Systeme abstellen und Grenzfälle eher konservativ behandeln. Sinnvoll ist eine interne Klassifikationslogik mit Risikostufen, bei der potentiell hochriskante Anwendungen vorläufig wie Hochrisiko-Systeme behandelt werden, um spätere Anpassungen zu erleichtern.


Wie lässt sich Post-Market-Monitoring für Hochrisiko-KI ohne EU-Guidance pragmatisch umsetzen?

Organisationen können ein Mindest-PMM etablieren, das klare Risk Indicators (z. B. Fehlerraten, Bias-Metriken, Sicherheitsvorfälle), einen definierten Incident-Management-Prozess, regelmäßige Reviews und eine saubere Änderungsdokumentation umfasst. Wichtig ist, Monitoring- und Reporting-Strukturen so modular und flexibel aufzubauen, dass sie nach Veröffentlichung der Leitlinien gezielt nachgeschärft werden können.


Welche konkreten Risiken drohen Unternehmen bei einer Abwartehaltung bis zur Veröffentlichung der Leitlinien?

Wer jetzt nicht handelt, riskiert Zeitdruck und operative Hektik im zweiten Halbjahr 2026, wenn Hochrisiko-Pflichten bereits gelten. Hinzu kommen mögliche Fehlinvestitionen, Engpässe bei Beratung und Implementierung sowie Reputationsschäden, falls KI-Systeme kurzfristig angepasst oder sogar vorübergehend abgeschaltet werden müssen.


Wie können sich Unternehmen in der Zwischenzeit an bestehenden Normen und Best Practices orientieren?

Unternehmen sollten sich an etablierten Standards wie ISO/IEC 42001 für KI-Management, allgemeinen Risikomanagementnormen (z. B. ISO 31000), Datenschutz- und Informationssicherheitsstandards (z. B. ISO/IEC 27001, 27701) sowie branchenspezifischen Sicherheitsnormen ausrichten. Diese bieten ein belastbares Fundament für AI-Governance, das mit überschaubarem Aufwand an die späteren EU-Leitlinien angepasst werden kann.


Was sollten Unternehmen jetzt organisatorisch und vertraglich tun, um AI-Act-ready zu werden?

Unternehmen sollten Verantwortlichkeiten für AI-Compliance festlegen, ein technisches Governance-Gremium etablieren und Schnittstellen zu Datenschutz, Informationssicherheit und Risikomanagement klären. Parallel sollten Verträge in der KI-Wertschöpfungskette überprüft werden, um Rollen (z. B. Anbieter, Integrator, Nutzer), Monitoringpflichten, Datenbereitstellung und Incident-Reporting im Sinne des AI Act sauber zu regeln.