EU-Kommission setzt 2026‑Fahrplan für Hochrisiko‑KI fest: Was Unternehmen jetzt konkret vorbereiten müssen
11.02.2026

Die EU-Kommission hat am 11. Februar 2026 klargestellt, dass die Frist 2. August 2026 für Hochrisiko‑KI unverändert gilt und erstmals konkrete Schwerpunkte für die Umsetzung des AI Act benannt: Verfahrensregeln für Konformitätsbewertung, Aufsichtspraxis und Durchsetzung stehen 2026 im Fokus. Für Unternehmen mit Hochrisiko‑KI in Bereichen wie Personal, Kreditvergabe, kritische Infrastrukturen oder Gesundheitswesen wird damit deutlich, welche technischen, dokumentarischen und organisatorischen Bausteine in welcher Reihenfolge aufgebaut werden müssen – und wo Fehlinvestitionen in „nice to have“-Governance vermieden werden können.
EU-Kommission setzt 2026‑Fahrplan für Hochrisiko‑KI fest: Was Unternehmen jetzt konkret vorbereiten müssen
1. Kontext: Warum 2026 zum Wendepunkt für Hochrisiko‑KI wird
Der EU AI Act ist seit August 2024 in Kraft, wird aber schrittweise anwendbar. Verbotene KI‑Praktiken und KI‑Kompetenzpflichten gelten seit Februar 2025, Governance‑Regeln und Pflichten für GPAI‑Modelle (einschließlich vieler LLMs) seit August 2025. Der Kern des Regimes – die Pflichten für Hochrisiko‑KI – greift weitgehend ab dem 2. August 2026, mit einzelnen Übergangsfristen bis 2027.
Neu ist nun: Die EU‑Kommission hat deutlich gemacht, dass
die Frist 2. August 2026 für Hochrisiko‑Systeme nicht verschoben wird, obwohl Leitlinien und Normen teilweise verspätet kommen,
2026 inhaltlich vor allem drei Schwerpunkte verfolgt werden:
1. Verfahrensregeln für Konformitätsbewertung und Dokumentation,
2. Aufbau und Arbeitsweise der Aufsichtsstrukturen,
3. praktische Durchsetzungsstrategie gegenüber Unternehmen.
Für Unternehmen entsteht damit ein klarerer Erwartungshorizont: Die EU fokussiert sich 2026 darauf, Hochrisiko‑Systeme tatsächlich prüf‑ und sanktionierbar zu machen – weniger auf weitere abstrakte Prinzipien.
2. Die drei Prioritäten der Kommission für 2026 im Detail
2.1 Verfahrensregeln für Konformitätsbewertung und Dokumentation
Im Mittelpunkt steht, wie Hochrisiko‑Anbieter nachweisen, dass sie die gesetzlichen Anforderungen erfüllen. Erwartbar ist, dass die Kommission und das AI Office 2026 insbesondere klarstellen:
Mindestinhalte der Technischen Dokumentation: Struktur und Detailtiefe zu Daten, Modellen, Trainingsprozessen, Evaluierung, Monitoring.
Anforderungen an das Risikomanagementsystem: Wie Risiken entlang des gesamten KI‑Lebenszyklus identifiziert, bewertet, mitigiert und nachverfolgt werden müssen.
Praxisorientierte Leitlinien zur Robustheits- und Genauigkeitsbewertung: Welche Teststrategien als angemessen gelten; wie mit Kontextabhängigkeit von Robustheit umzugehen ist.
Schnittstellen zu Normen: Wie Entwürfe harmonisierter Normen (viele ab Herbst 2025) und finale Fassungen (ab voraussichtlich August 2026) in Konformitätsbewertungen einzubeziehen sind.
Implikation: Unternehmen sollten 2026 nicht primär in „neue“ Governance‑Konzepte investieren, sondern existierende Governance, Risiko‑ und Qualitätsprozesse so ausrichten, dass sie prüffähige, konsistente und versionierte Nachweise generieren.
2.2 Aufsichtspraxis: Wer prüft was – und wie tief?
Mit AI Office, nationalen Marktüberwachungsbehörden und branchenspezifischen Regulatoren entsteht ein mehrstufiges Aufsichtssystem. 2026 wird vor allem operationalisiert:
Rollenverteilung: Welche Fälle verbleiben beim AI Office (z.B. GPAI mit systemischen Risiken), welche bei nationalen Behörden, welche bei Sektoraufsichten (z.B. Finanz‑ oder Medizinprodukteaufsicht).
Priorisierung von Fällen: Fokus auf Hochrisiko‑Anwendungen mit großem Grundrechts‑ oder Sicherheitsimpact (z.B. Entscheidungsunterstützung im HR, Kreditentscheidung, kritische Infrastruktur, Gesundheitsversorgung).
Koordination bei grenzüberschreitenden Fällen: Verfahren, wie Mitgliedstaaten Daten und Erkenntnisse teilen und gemeinsame Prüfstrategien entwickeln.
Implikation: Konzerne mit mehreren EU‑Standorten müssen davon ausgehen, dass unterschiedliche nationale Behörden eingebunden werden. Ein zentral harmonisiertes AI‑Compliance‑Framework ist effizienter als fragmentierte Länder‑Ansätze.
2.3 Durchsetzung: Von „Soft Guidance“ zu spürbaren Maßnahmen
Die Kommission hat klar signalisiert, dass sie trotz noch laufender Normungsprozesse an der Durchsetzung der 2026‑Pflichten festhält. Zu erwarten sind:
Frühe Beispielverfahren gegen typische Hochrisiko‑Use‑Cases zur Klärung der Messlatte,
stärkere Nutzung von Audits und Inspektionen bei kritischen Sektoren,
Nutzung des vollen Sanktionsrahmens in gravierenden Fällen, insbesondere bei fortgesetzten Verstößen oder offensichtlicher Ignoranz der Pflichten.
Für Unternehmen bedeutet das: „Abwarten, bis alles im Detail normiert ist“, ist kein tragfähiges Compliance‑Narrativ mehr.
3. Konkrete Auswirkungen auf Roadmaps von Unternehmen
3.1 Fokussierung auf Hochrisiko‑Use‑Cases
Unternehmen sollten 2026 eine klare Priorisierung vornehmen:
Identifikation aller (potenziell) Hochrisiko‑Systeme gemäß Anhang III des AI Act.
Bewertung, ob Ausnahmen greifen (z.B. kein erhebliches Grundrechtsrisiko durch nur unterstützende Nutzung).
Schrittweise Abschichtung:
- „Kern‑Hochrisiko“, die auch nach Ausnahmepüfung klar in den Anwendungsbereich fallen,
- „Grauzone“, bei der weitere Klärung durch Leitlinien oder Behördenratsbeschlüsse sinnvoll ist,
- „Nicht‑Hochrisiko“, die primär von Transparenz‑ und Governance‑Pflichten betroffen sind.
3.2 Technische und dokumentarische Mindestbasis bis August 2026
Für bestätigte Hochrisiko‑Systeme sollten bis spätestens Mitte 2026 folgende Basiskomponenten produktiv sein:
Risikoinventar für jedes System mit dokumentiertem Zweck, Nutzergruppen, betroffenen Grundrechten und möglichen Schadensszenarien.
Dokumentierte Daten-Governance: Herkunft, Qualitätssicherung, Bias‑Analysen, Datenaufbereitung, Versionierung.
Nachvollziehbare Modell-Governance: Modellarchitektur, Trainings‑ und Tuningprozesse, Evaluationsergebnisse, Grenzen und bekannte Schwächen.
Monitoring‑Konzept im Betrieb: KPIs für Leistung, Fairness, Drift; Eskalationspfade; Trigger für Modellupdates.
Konformitätsakte für Hochrisiko‑Systeme, die in der Struktur bereits an erwartete EU‑Templates und Normungslogik angelehnt sind.
4. Beispiele aus der Unternehmenspraxis
4.1 Personalwesen (Recruiting‑KI)
Ein Konzern nutzt ein KI‑gestütztes Scoring‑Tool zur Bewerbervorauswahl:
Kurzfristig (2026): Klassifizierung als Hochrisiko prüfen, Dokumentation der Datenquellen (z.B. CV‑Parsing), Fairness‑Tests für Geschlecht, Alter, Herkunft; Governance‑Regeln für menschliche Kontrolle im Auswahlprozess.
Mittelfristig: Integration des Systems in das zentrale AI‑Risikoregister; Vorbereitung auf externe Auditierung (z.B. durch Stellenanzeigen‑ und Auswahlprotokolle, Log‑Daten, Erklärbarkeitsberichte).
4.2 Finanzdienstleistungen (Kreditentscheidungen)
Eine Bank verwendet ML‑Modelle für Kreditbewertung:
Kurzfristig: Abgleich mit AI‑Act‑Risikokategorie, Inventarisierung relevanter Modelle, technische Dokumentation, Monitoring über Ausfallraten und Diskriminierungsindikatoren.
Mittelfristig: Konsolidierung von Modell‑ und Risikomanagementprozessen, damit AI‑ und Bankaufsichtsanforderungen (z.B. an Modellrisikomanagement) konsistent erfüllt werden.
4.3 Gesundheitswesen (Diagnoseunterstützung)
Ein MedTech‑Anbieter liefert KI‑Module für Bilddiagnostik:
Kurzfristig: Harmonisierung von Medizinprodukte‑Regime und AI‑Act‑Pflichten; Sicherstellung konsistenter klinischer Evidenz, Robustheitstests und Post‑Market‑Surveillance.
Mittelfristig: Vorbereitung auf kombinierte Audits (MDR + AI Act), Aufbau eines einheitlichen Dossiers, das beiden Regimen genügt.
5. Strategische Empfehlungen für Entscheidungsträger
5.1 Governance aufbauen, aber schlank halten
Ein zentrales AI‑Governance‑Framework mit klaren Rollen (z.B. AI Compliance Officer, AI Product Owner, Data Steward) vermeiden Doppelstrukturen.
Kompatibilität mit bestehenden Frameworks (ISMS, Datenschutz‑Management, Modellrisikomanagement) ist wichtiger als völlig neue AI‑Silos.
5.2 Budget und Ressourcen realistisch planen
2026 ist primär ein Investitionsjahr in Dokumentation, Prozesse und Monitoring, weniger in neue Tools.
Externe Beratung sollte gezielt für Risikoklassifizierung, Konformitätsakte und Schnittstellen zu Normen genutzt werden – nicht für generische „AI‑Strategie‑Workshops“.
5.3 Frühzeitige Behörden‑Interaktion nutzen
Teilnahme an Konsultationen zu Leitlinien, Norm‑Entwürfen und ggf. technischen Sandkästen schafft Erfahrungsvorsprung und Rechtssicherheit.
Pilotprüfungen bzw. interne „Mock Audits“ entlang der erwarteten 2026‑Verfahrensregeln helfen, Lücken früh zu erkennen.
6. Fazit: 2026 entscheidet über Regulierungsreife – nicht erst 2027
Mit den nun gesetzten Schwerpunkten signalisiert die EU‑Kommission, dass Hochrisiko‑KI ab August 2026 praktisch durchsetzbar sein soll. Für Unternehmen heißt das:
Hochrisiko‑Use‑Cases priorisieren,
prüffähige Dokumentation und Monitoring‑Strukturen bis Mitte 2026 aufbauen,
AI‑Governance eng mit bestehenden Compliance‑Systemen verzahnen.
Wer 2026 nutzt, um seine KI‑Landschaft strukturiert zu inventarisieren und Hochrisiko‑Systeme konform zu machen, reduziert nicht nur Sanktionsrisiken, sondern verbessert Transparenz, Steuerbarkeit und Resilienz seiner datengetriebenen Geschäftsmodelle.
Häufig gestellte Fragen (FAQ)
Was versteht der EU AI Act unter Hochrisiko-KI und ab wann gelten die Pflichten?
Hochrisiko-KI sind KI-Systeme in besonders sensiblen Bereichen, etwa Personalwesen, Kreditvergabe, kritische Infrastrukturen oder Gesundheitswesen. Die zentralen Pflichten für diese Systeme gelten weitgehend ab dem 2. August 2026, einzelne Übergangsfristen laufen bis 2027.
Welche drei Prioritäten verfolgt die EU-Kommission im Jahr 2026 bei der Umsetzung des AI Act?
Die Kommission fokussiert sich 2026 erstens auf Verfahrensregeln für Konformitätsbewertung und Dokumentation, zweitens auf die Ausgestaltung der Aufsichtspraxis und drittens auf eine wirksame Durchsetzung gegenüber Unternehmen. Ziel ist es, Hochrisiko-KI bis August 2026 tatsächlich prüf- und sanktionierbar zu machen.
Wie sollten Unternehmen 2026 konkret mit ihren Hochrisiko-KI-Use-Cases umgehen?
Unternehmen sollten zunächst alle (potenziell) Hochrisiko-Systeme identifizieren und prüfen, ob Ausnahmen greifen. Anschließend empfiehlt sich eine Abstufung in klar hochriskante, „Grauzonen“- und nicht hochriskante Systeme, um Ressourcen gezielt auf die wirklich relevanten Use-Cases zu konzentrieren.
Welche technischen und dokumentarischen Mindestanforderungen müssen bis August 2026 erfüllt sein?
Bis spätestens Mitte 2026 sollten Unternehmen für bestätigte Hochrisiko-Systeme ein Risikoinventar, eine dokumentierte Daten- und Modell-Governance sowie ein Monitoring-Konzept im Betrieb etabliert haben. Zudem wird ein strukturierter Konformitätsakt benötigt, der sich an den erwarteten EU-Templates und Normen orientiert.
Wie verändert sich die Aufsichtspraxis für Hochrisiko-KI durch das AI Office und nationale Behörden?
Mit dem AI Office, nationalen Marktüberwachungsbehörden und Sektoraufsichten entsteht ein mehrstufiges Aufsichtssystem. 2026 werden Rollen, Fallpriorisierung und die Koordination bei grenzüberschreitenden Fällen konkretisiert, sodass Konzerne mit mehreren EU-Standorten ein harmonisiertes AI-Compliance-Framework benötigen.
Welche Folgen drohen Unternehmen, die ihre Hochrisiko-KI nicht rechtzeitig auf den AI Act ausrichten?
Die EU-Kommission hat signalisiert, dass sie den vollen Sanktionsrahmen nutzen will, insbesondere bei gravierenden oder fortgesetzten Verstößen. Unternehmen müssen daher mit Beispielverfahren, Audits und Inspektionen rechnen, wenn sie bis 2026 keine prüffähige Dokumentation und Governance-Struktur vorweisen können.
Was sollten Unternehmen im Jahr 2026 priorisieren, um AI-Act-konform zu werden?
Im Fokus sollten der Aufbau eines schlanken, zentralen AI-Governance-Frameworks, die Erstellung prüffähiger Dokumentation und der Aufbau von Monitoring-Strukturen stehen. Investitionen in existierende Risiko-, Qualitäts- und Compliance-Prozesse sind wichtiger als neue, isolierte Governance-Konzepte oder reine Strategie-Workshops.