EU-Verhaltenskodex für General-Purpose-AI-Modelle: Was der erste Entwurf für Unternehmen jetzt konkret bedeutet
30.01.2026

Die EU-Kommission hat den ersten Entwurf eines Verhaltenskodex für KI-Modelle mit allgemeinem Verwendungszweck (General Purpose AI, GPAI) veröffentlicht und zur Konsultation gestellt. Der Kodex konkretisiert zentrale Pflichten des AI Act – von Transparenz- und Urheberrechtsregeln über Systemrisiko-Taxonomien bis hin zu Risk-Assessments und Mitigationsmaßnahmen für besonders leistungsfähige Modelle. Der Beitrag ordnet den Entwurf ein, analysiert Auswirkungen auf Governance, Compliance und Vendor-Management und zeigt, wie sich Unternehmen in der EU ab 2025/2026 strategisch vorbereiten sollten.
EU-Verhaltenskodex für General-Purpose-AI-Modelle: Was der erste Entwurf für Unternehmen jetzt konkret bedeutet
Die EU-Kommission hat den ersten Entwurf eines Verhaltenskodex für General-Purpose-AI-Modelle (GPAI) veröffentlicht und zur offiziellen Konsultation gestellt. Der Kodex soll als zentrales Instrument dienen, um die Vorgaben des AI Act für KI-Modelle mit allgemeinem Verwendungszweck operativ umzusetzen.
Für Unternehmen in der EU – sowohl für Anbieter als auch für Nutzer solcher Modelle – entsteht damit deutlich früher als erwartet ein konkreter Rahmen, wie Foundation- und Basismodelle dokumentiert, überwacht und risikoorientiert betrieben werden sollen. Der Entwurf markiert einen Wendepunkt: von abstrakten Rechtsnormen hin zu überprüfbaren Prozessen und Nachweispflichten.
1. Kontext: Was ist passiert und wer ist betroffen?
1.1 Politischer und regulatorischer Hintergrund
Mit dem AI Act hat die EU einen einheitlichen Rechtsrahmen für Künstliche Intelligenz geschaffen. Ein besonderer Fokus liegt auf KI-Modellen mit allgemeinem Verwendungszweck (General Purpose AI, GPAI), also Modellen, die für eine Vielzahl von Aufgaben eingesetzt und in eine breite Palette nachgelagerter KI-Systeme eingebettet werden können.
Die EU-Kommission hat – gestützt auf das neu geschaffene Amt für Künstliche Intelligenz (AI Office) – einen ersten Entwurf eines Verhaltenskodex (Code of Practice) für GPAI-Modelle vorgelegt und zur Konsultation freigegeben. Dieser Entwurf basiert auf:
Beiträgen unabhängiger Sachverständiger, die vom AI Office als Vorsitzende und stellvertretende Vorsitzende von Arbeitsgruppen eingesetzt wurden,
einem mehrstufigen Konsultationsprozess mit Stakeholdern aus Industrie, Zivilgesellschaft und Forschung,
spezifischen Workshops mit Anbietern von GPAI-Modellen.
Der Kodex ist formal zunächst freiwillig, dient aber als zentrale Referenz, wie die Anforderungen des AI Act– insbesondere zu GPAI – in der Praxis erfüllt werden können. Er ist damit faktisch ein De-facto-Standard, an dem sich Aufsichtsbehörden und Gerichte künftig orientieren werden.
1.2 Zeitliche Einordnung zum AI Act
Wesentliche Daten im Zusammenhang mit GPAI und dem Kodex sind:
2. August 2025: Die spezifischen Vorschriften des AI Act für GPAI-Modelle werden anwendbar. Ab diesem Datum müssen neue GPAI-Modelle die einschlägigen Anforderungen erfüllen.
Bis 2. August 2025: Anbieter, die bereits GPAI-Modelle im Markt haben, müssen ihre Modelle an die Anforderungen des AI Act anpassen.
Ab 2. August 2026: Vollständiger Start der Durchsetzungsmaßnahmen (u. a. Auskunftsersuchen, Zugang zu Modellen, mögliche Rückrufe) gegenüber GPAI-Modellen.
Der jetzt veröffentlichte erste Entwurf des Verhaltenskodex kommt damit in einer Phase, in der Anbieter und größere Nutzerorganisationen ihre Compliance-Programme und technischen Maßnahmen planen. Wer den Kodex frühzeitig als Blaupause nutzt, reduziert das Risiko späterer Ad-hoc-Anpassungen.
1.3 Wer ist von dem Kodex direkt und indirekt betroffen?
Direkt betroffen sind:
Anbieter von GPAI-Modellen (kommerziell, Open Source, Forschungsverbünde),
Betreiber besonders leistungsfähiger GPAI-Modelle, bei denen systemische Risiken angenommen werden können.
Indirekt betroffen – aber strategisch genauso relevant – sind:
Unternehmen, die GPAI-Modelle in eigene Produkte und Services integrieren (z. B. Software-Anbieter, Plattformbetreiber, Industriekonzerne mit eigenen KI-Lösungen),
große Nutzerorganisationen, die GPAI-Modelle intern einsetzen (z. B. Banken, Versicherungen, Gesundheitsdienstleister, Öffentliche Verwaltung),
Forschungseinrichtungen und Hochschulen, die GPAI-Modelle entwickeln oder hosten.
Für diese Gruppen ist der Kodex ein wichtiger Referenzrahmen für Vendor-Management, interne Governance und technische Mindeststandards.
2. Was regelt der Entwurf konkret?
2.1 Transparenzpflichten entlang des Lebenszyklus
Der Entwurf operationalisiert die Transparenzanforderungen des AI Act für GPAI und legt fest, welche Informationen Anbieter bereitstellen sollen. Typische Elemente:
Modellbeschreibung und Fähigkeiten: klare, verständliche Beschreibung von Zweck, Fähigkeiten, Grenzen und typischen Einsatzbereichen eines GPAI-Modells.
Trainingsdaten-Informationen: strukturierte Angaben zu Herkunft, Kategorien und Aufbereitung der Trainingsdaten, einschließlich Angaben zu Datenquellen und ggf. lizenzierten Datensätzen.
Evaluations- und Testprotokolle: dokumentierte Verfahren zur Evaluierung von Genauigkeit, Robustheit, Bias, Halluzinationsneigung und anderen Performance-Metriken.
Release- und Change-Log: nachvollziehbare Protokollierung relevanter Modellversionen, Updates und Sicherheits-Patches.
Schnittstellen- und Integrationsinformationen: technische Spezifikationen zu APIs, Embedding-Funktionen, Fine-Tuning-Schnittstellen etc.
Für nachgelagerte Nutzer (Unternehmen, die GPAI einbinden) bedeutet dies: Sie erhalten einen strukturierten Informationskatalog, der sich direkt in interne Risikoanalysen, DPIAs (Datenschutz-Folgenabschätzungen) und Produktdokumentationen überführen lässt.
2.2 Urheberrecht und Trainingsdaten: Klärung der Erwartungshaltung
Ein Schwerpunkt des Kodex liegt auf Urheberrecht und Lizenzen. Der AI Act verlangt, dass Anbieter von GPAI-Modellen:
dokumentieren, inwieweit urheberrechtlich geschützte Werke im Training verwendet wurden,
Rechteinhaber respektieren und Mechanismen zur Durchsetzung vertraglicher oder gesetzlicher Nutzungsbeschränkungen implementieren.
Der Kodex konkretisiert dies u. a. durch:
Vorgaben zu Transparenzberichten über verwendete Datenkategorien (z. B. wissenschaftliche Publikationen, Presseartikel, Code-Repositories),
Anforderungen an Lizenzmanagement (Nachweise über Lizenzen, Terms-of-Use-Compliance, Umgang mit „Opt-out“-Signalen),
Prozesse zum Umgang mit Notice-and-Takedown bzw. Korrekturen, wenn Rechteverletzungen geltend gemacht werden.
Für Unternehmen, die GPAI-Modelle nutzen oder integrieren, bedeutet das: Sie können künftig besser prüfen, ob ihr Modellanbieter ein rechtlich tragfähiges Urheberrechtskonzept verfolgt – ein kritischer Punkt für Reputations- und Haftungsrisiken.
2.3 Systemrisiko-Taxonomie: Von abstrakten Risiken zu überprüfbaren Kategorien
Ein weiterer Kernbestandteil des Entwurfs ist eine Taxonomie systemischer Risiken durch besonders leistungsfähige GPAI-Modelle. Typische Kategorien sind etwa:
Sicherheitsrisiken (z. B. Unterstützung bei der Erstellung von Malware, biochemischen Gefahren, kritischen Infrastruktureingriffen),
Gesellschaftliche Risiken (z. B. Desinformation, Wahlbeeinflussung, Verstärkung von Diskriminierung),
Ökonomische und Wettbewerbsrisiken (z. B. Marktverzerrungen durch extreme Skaleneffekte weniger GPAI-Anbieter),
Systemische technische Risiken (z. B. Abhängigkeit kritischer Sektoren von wenigen Modellen).
Der Kodex schlägt vor, wie diese Risiken:
systematisch identifiziert,
qualitativ und quantitativ bewertet,
priorisiert und über den Lebenszyklus eines Modells überwacht werden sollen.
Damit entsteht erstmals ein quasi-standardisiertes Vokabular, mit dem Unternehmen intern und gegenüber Aufsichtsbehörden über KI-Risiken sprechen können.
2.4 Risk-Assessments und Mitigationsmaßnahmen
Der Entwurf geht deutlich über reine Beschreibung hinaus und verlangt konkrete Risk-Assessments sowie Mitigationspläne für GPAI-Modelle mit hohem Gefährdungspotenzial. Dazu gehören u. a.:
Vorab-Risikoanalysen vor dem Roll-out neuer Modellversionen,
Red-Teaming und adversariale Tests zu Missbrauchsszenarien (z. B. Prompt-Injection, jailbreaks, Sicherheitsumgehung),
Guardrails und Policy-Layer, die bestimmte Outputs technisch oder policy-basiert einschränken,
Monitoring-Pflichten nach dem Roll-out, inklusive Protokollierung schwerwiegender Vorfälle,
Notfall- und Abschaltmechanismen für den Fall unerwarteter systemischer Risiken.
Für besonders leistungsfähige GPAI-Modelle (teilweise auch als „High-Impact GPAI“ bezeichnet) verschärft der Kodex die Anforderungen:
engmaschigere Evaluationszyklen,
intensivere Interaktion mit dem AI Office und anderen zuständigen Behörden,
ggf. zusätzliche Dokumentations- und Berichtspflichten.
3. Auswirkungen auf Unternehmen: Governance, Compliance und Technik
3.1 Governance-Strukturen: Vom KI-Projekt zum regulierten Produkt
Für Unternehmen bedeutet der Kodex, dass GPAI-Nutzung nicht länger als reines Innovations- oder Pilotprojekt betrachtet werden kann. Stattdessen ist ein Übergang nötig hin zu regulierten, dokumentierten Produkt- und Betriebsprozessen.
Konkrete Governance-Konsequenzen:
Einrichtung oder Stärkung eines AI Governance Boards bzw. einer bereichsübergreifenden Steuerungsgruppe (Legal, Compliance, IT, Data Science, Security, Fachbereich),
Festlegung verbindlicher Rollen und Verantwortlichkeiten für Auswahl, Integration, Betrieb und Überwachung von GPAI-Modellen,
Verknüpfung von AI Governance mit bestehenden Rahmenwerken, etwa Informationssicherheit (ISO 27001), Datenschutz (DSGVO), Risikomanagement (z. B. ISO 31000) und ggf. branchenspezifischen Vorgaben (Finanzmarktaufsicht, MedTech, Kritische Infrastrukturen).
3.2 Vertragliche Beziehungen zu GPAI-Anbietern
Der Kodex wirkt sich direkt auf das Vendor-Management aus. Unternehmen sollten ihre bestehenden und zukünftigen Verträge mit GPAI-Anbietern daraufhin überprüfen, ob sie:
die im Kodex beschriebenen Transparenzinformationen vertraglich zugesichert bekommen,
Audit- und Auskunftsrechte erhalten (z. B. Einsicht in relevante Dokumentation, Sicherheitskonzepte, Evaluationsberichte),
klare Regelungen zu IP- und Urheberrechtsfragen haben (inkl. Freistellungen und Haftungsregelungen),
Möglichkeiten für Risikomitigation und Serviceanpassungen bei neu auftretenden systemischen Risiken enthalten.
Praktisch wird sich damit ein Standard an „GPAI-Compliance-Klauseln“ herausbilden. Anbieter, die sich am Kodex orientieren und dies transparent machen, werden Wettbewerbsvorteile bei Enterprise-Kunden haben.
3.3 Interne technische Mindeststandards
Unternehmen, die GPAI einsetzen – sei es über API, gehostete Modelle oder eigene Instanzen – sollten technische Mindeststandards ableiten, z. B.:
Einsatz nur von Modellen, deren Anbieter sich entweder explizit an den Kodex halten oder vergleichbare Nachweise liefern,
Logging und Monitoring aller kritischen Interaktionen mit GPAI (z. B. für sicherheitsrelevante Anwendungsfälle),
Output-Filter und Post-Processing bei sensiblen Domänen (Finanzberatung, Gesundheit, Personalentscheidungen),
Integration von Human-in-the-Loop-Prozessen, wo der AI Act diese erwartet oder wo besondere Risiken bestehen,
regelmäßige technische und ethische Reviews der eingesetzten Use Cases.
4. Konkrete Anwendungsfälle und Szenarien
4.1 Finanzsektor: KI-gestützte Beratung und Compliance
Ein europäisches Kreditinstitut nutzt ein GPAI-Modell für:
generative Unterstützung bei Kreditwürdigkeitsanalysen,
automatisierte Erstellung von Vertragsentwürfen,
interne Wissensabfragen für Mitarbeitende.
Durch den Kodex ergeben sich folgende Implikationen:
Das Institut kann – und muss – von seinem Modellanbieter Transparenzberichte zu Trainingsdaten, Evaluierung und Sicherheitsmaßnahmen einfordern.
Für KI-basierte Empfehlungen mit möglichem Einfluss auf Kreditentscheidungen müssen Bias- und Fairness-Tests dokumentiert werden.
Interne Richtlinien müssen regeln, bei welchen Schritten menschliche Prüfung zwingend erforderlich ist.
In Stresstests und Risikoberichten gegenüber Aufsicht (z. B. EZB, BaFin) werden GPAI-Risiken künftig explizit adressiert werden müssen.
4.2 Industrieunternehmen: GPAI in Entwicklung und Produktion
Ein Industrieunternehmen nutzt GPAI-Modelle in der Produktentwicklung (z. B. für Entwürfe, Simulationen, technische Dokumentation) und im Service (Chatbots, Assistenzsysteme).
Praktische Konsequenzen:
Technische Dokumentation und Handbücher, die (teilweise) durch GPAI generiert wurden, müssen so gekennzeichnet und geprüft werden, dass Haftungsrisiken im Produkthaftungsrecht reduziert werden.
Für sicherheitskritische Informationen (z. B. Wartungsanweisungen) werden zusätzliche Kontrollschritte und ggf. Validierungs-Workflows erforderlich.
Bei der Auswahl von Modellen wird die Frage, ob sich ein Anbieter am GPAI-Verhaltenskodex orientiert, zum ausschlaggebenden Kriterium.
4.3 Öffentliche Verwaltung: Verwaltungsprozesse und Bürgerkommunikation
Behörden und öffentliche Einrichtungen experimentieren mit GPAI für:
Unterstützung bei der Erstellung von Bescheiden und Begründungen,
Bürgerkommunikation (FAQ-Bots, Formularhilfen),
interne juristische und fachliche Recherchen.
Der Kodex gibt hier einen Rahmen dafür, wie:
Rechtssicherheit in Bezug auf Datenquellen und Urheberrechte hergestellt wird,
sensitive Daten (Sozialdaten, Gesundheitsdaten) vom Modelltraining und -betrieb sauber getrennt bleiben,
Transparenz gegenüber Bürgerinnen und Bürgern geschaffen wird, wenn GPAI zum Einsatz kommt.
5. Was Unternehmen jetzt konkret tun sollten
5.1 Frühzeitige Gap-Analyse gegen den Kodex
Unternehmen sollten kurzfristig eine Gap-Analyse durchführen:
Inventar: Welche GPAI-Modelle werden heute bereits genutzt (Test, Pilot, Produktion)?
Use-Case-Mapping: In welchen Prozessen und Produkten kommen sie zum Einsatz, mit welcher Kritikalität?
Abgleich mit Kodex: Welche Transparenz-, Risiko- und Governance-Anforderungen des Entwurfs werden bereits erfüllt, welche nicht?
Priorisierung: Wo sind die größten Lücken mit Blick auf August 2025 und die späteren Durchsetzungsfristen?
5.2 Aufbau einer GPAI-Policy und interner Standards
Auf Basis der Gap-Analyse sollte eine GPAI-spezifische Unternehmenspolicy entwickelt werden, die u. a. regelt:
Zulassungskriterien für GPAI-Anbieter (Transparenz, Kodex-Commitment, Sicherheitsnachweise),
technische Mindestanforderungen (Logging, Monitoring, Guardrails),
Prozesse für Risikobewertung und Freigabe neuer GPAI-Use-Cases,
Anforderungen an Dokumentation und Nachweispflichten (für interne Audits und externe Aufsicht),
Schulungspflichten für Fachbereiche, die GPAI einsetzen.
5.3 Anpassung von Lieferanten- und Kundenverträgen
Bestehende Rahmenverträge und neue Vereinbarungen rund um KI sollten systematisch auf die Logik des Kodex ausgerichtet werden:
Ergänzung um GPAI-spezifische SLA-Elemente (Transparenz, Reaktionszeiten bei Sicherheitsvorfällen, Informationspflichten),
vertragliche Absicherung von Urheberrechtsrisiken und Freistellungen,
klare Regelungen zur Datenverwendung (insbesondere, ob und wie Kundendaten in Fine-Tuning- oder Retraining-Prozesse einfließen dürfen),
Aufnahme von Kündigungs- oder Anpassungsrechten, wenn ein Anbieter Kodex-Standards nicht mehr einhält oder Aufsichtsbehörden konkrete Beanstandungen äußern.
5.4 Beteiligung an der Konsultation
Schließlich sollten größere Unternehmen und Verbände prüfen, ob sie sich aktiv in die Konsultation zum Kodex einbringen:
Einbringen sektorspezifischer Anforderungen (z. B. Finanzmarkt, Gesundheit, Energie),
Hinweise auf praktikable Nachweisformen und Auditmechanismen,
Anregungen zur Vermeidung überbordender Bürokratie bei geringem Risiko.
Wer sich früh beteiligt, kann die späteren Standards mitprägen und seine eigene Compliance-Roadmap darauf abstimmen.
6. Fazit und zentrale Takeaways
Der erste Entwurf des EU-Verhaltenskodex für General-Purpose-AI-Modelle markiert den Übergang von abstrakten rechtlichen Vorgaben zu einem operativen, überprüfbaren Rahmen. Für Unternehmen ist er weniger „nice to have“ als vielmehr die praktische Blaupause für AI-Governance ab 2025/2026.
Wesentliche Punkte auf einen Blick:
Früher Klarheitsgewinn: Der Kodex konkretisiert bereits heute, wie die GPAI-Pflichten des AI Act – insbesondere ab August 2025 – praktisch umzusetzen sind.
Transparenz und IP im Fokus: Anbieter müssen detailliert offenlegen, wie ihre Modelle trainiert wurden und wie Urheberrechte gewahrt werden; Unternehmen können dies als Auswahl- und Compliance-Kriterium nutzen.
Risikobasierter Ansatz: Eine systemische Risiko-Taxonomie und verbindlichere Risk-Assessments samt Mitigationsplänen werden zum Branchenstandard für leistungsfähige GPAI-Modelle.
Hebel für Governance und Verträge: Der Kodex liefert eine Vorlage, um interne AI-Governance, Sicherheitsstandards und Vendor-Verträge neu auszurichten.
Wettbewerbsfaktor Compliance: GPAI-Anbieter, die sich frühzeitig am Kodex orientieren und dies nachweisen, erhalten einen Vertrauens- und Marktvorteil – und reduzieren zugleich das Risiko regulatorischer Interventionen.
Handlungsdruck jetzt: Unternehmen, die GPAI bereits einsetzen oder planen, sollten 2026 für Inventar, Gap-Analyse, Policy-Aufbau und Vertragsanpassungen nutzen, um nicht in Zeitdruck zu geraten, wenn die Durchsetzung des AI Act voll greift.
Häufig gestellte Fragen (FAQ)
Was ist der EU-Verhaltenskodex für General-Purpose-AI-Modelle (GPAI)?
Der EU-Verhaltenskodex für General-Purpose-AI-Modelle ist ein von der EU-Kommission veröffentlichter Kodex, der die Pflichten des AI Act für KI-Modelle mit allgemeinem Verwendungszweck konkretisiert. Er übersetzt abstrakte Rechtsnormen in praktische Anforderungen zu Transparenz, Urheberrecht, Risiko-Management und Governance entlang des gesamten Modell-Lebenszyklus.
Wer ist vom EU-GPAI-Verhaltenskodex direkt und indirekt betroffen?
Direkt betroffen sind vor allem Anbieter und Betreiber von General-Purpose-AI-Modellen, einschließlich kommerzieller Anbieter, Open-Source-Communities und Forschungsverbünde. Indirekt betroffen sind alle Unternehmen und Organisationen, die GPAI-Modelle in Produkte, Services oder interne Prozesse integrieren, etwa Banken, Versicherungen, Industriekonzerne, öffentliche Verwaltung sowie Hochschulen.
Welche zentralen Pflichten und Themen regelt der Entwurf des GPAI-Verhaltenskodex?
Der Entwurf regelt insbesondere Transparenzanforderungen (Modellbeschreibung, Trainingsdaten, Evaluationsprotokolle), urheberrechtliche Vorgaben und Lizenzmanagement sowie eine Taxonomie systemischer Risiken. Zudem verlangt er strukturierte Risk-Assessments, Mitigationspläne, Monitoring, Notfallmechanismen und klare Dokumentations- und Nachweispflichten für besonders leistungsfähige GPAI-Modelle.
Ab wann gelten die AI-Act-Vorgaben für GPAI-Modelle und wie hängt der Kodex zeitlich damit zusammen?
Die spezifischen Vorschriften des AI Act für GPAI-Modelle gelten ab dem 2. August 2025, bis dahin müssen bestehende Modelle angepasst sein. Ab dem 2. August 2026 starten die umfassenden Durchsetzungsmaßnahmen, und der jetzt veröffentlichte Kodex dient Unternehmen schon im Vorfeld als praktische Blaupause für ihre Compliance- und Governance-Programme.
Wie wirkt sich der GPAI-Verhaltenskodex auf Verträge mit KI-Anbietern aus?
Der Kodex führt zu neuen Anforderungen an Vendor-Management und Vertragsgestaltung, etwa durch vertraglich zugesicherte Transparenzinformationen, Audit- und Auskunftsrechte sowie klare Regelungen zu Urheberrecht und Haftung. Unternehmen sollten ihre Lieferantenverträge um GPAI-spezifische Klauseln zu Sicherheitsvorfällen, Datenverwendung, Anpassungsrechten und Reaktionspflichten bei neuen Risiken ergänzen.
Welche Auswirkungen hat der GPAI-Verhaltenskodex auf die interne AI-Governance von Unternehmen?
Unternehmen müssen KI-Projekte stärker wie regulierte Produkte behandeln und Governance-Strukturen professionalisieren, etwa durch ein AI Governance Board und klar definierte Rollen und Verantwortlichkeiten. Zudem sollten sie AI-Governance mit bestehenden Rahmenwerken wie Informationssicherheit, Datenschutz und Risikomanagement verknüpfen und technische Mindeststandards für Einsatz, Monitoring und Human-in-the-Loop etablieren.
Was sollten Unternehmen jetzt konkret tun, um sich auf den GPAI-Verhaltenskodex und den AI Act vorzubereiten?
Unternehmen sollten zunächst ein Inventar aller eingesetzten GPAI-Modelle erstellen und eine Gap-Analyse gegenüber den Anforderungen des Kodex durchführen. Darauf aufbauend sind eine GPAI-spezifische Unternehmenspolicy, technische Mindeststandards, die Anpassung von Lieferanten- und Kundenverträgen sowie – insbesondere für größere Akteure – eine aktive Beteiligung an der laufenden Konsultation sinnvoll.