FDA und EMA definieren 10 Leitprinzipien für KI in der Arzneimittelentwicklung: Was Life‑Sciences‑Unternehmen jetzt anpassen müssen
29.01.2026
Die US‑FDA und die europäische EMA haben erstmals gemeinsame „Guiding Principles of Good AI Practice in Drug Development“ veröffentlicht. Die zehn Leitprinzipien definieren einen de‑facto Referenzrahmen für den Einsatz von KI entlang des gesamten Arzneimittel‑Lebenszyklus – von der präklinischen Forschung über klinische Studien bis zur Herstellung und Pharmakovigilanz. Der Beitrag analysiert die konkreten Auswirkungen auf Pharma, Biotech und Medtech, zeigt typische Anwendungsszenarien und leitet ab, welche organisatorischen, technischen und regulatorischen Anpassungen Unternehmen jetzt priorisieren sollten, um Zulassungsrisiken zu minimieren und KI‑Investitionen zukunftssicher zu gestalten.
FDA und EMA definieren 10 Leitprinzipien für KI in der Arzneimittelentwicklung: Was Life‑Sciences‑Unternehmen jetzt anpassen müssen
Die US‑amerikanische Food and Drug Administration (FDA) und die Europäische Arzneimittelagentur (EMA) haben Ende Januar 2026 erstmals gemeinsame Leitprinzipien für den Einsatz von Künstlicher Intelligenz (KI) in der Arzneimittelentwicklung veröffentlicht. Diese „Guiding Principles of Good AI Practice in Drug Development“ markieren einen Wendepunkt für regulierte Life‑Sciences‑Märkte.
Für Pharma‑, Biotech‑ und Medtech‑Unternehmen entsteht damit ein global anschlussfähiger Referenzrahmen, der künftig Prüf‑ und Zulassungspraxis maßgeblich prägen dürfte. Gleichzeitig zwingt er Unternehmen, ihre KI‑Strategien, GxP‑Prozesse und Lieferketten kurzfristig zu überprüfen und zu justieren.
Kontext: Was genau beschlossen wurde – und von wem
Gemeinsame Initiative von FDA und EMA
FDA (konkret CDER und CBER) und EMA haben zehn hochrangige Leitprinzipien abgestimmt, die den „guten KI‑Einsatz“ in der Arzneimittelentwicklung definieren. Die Prinzipien sind formal nicht rechtsverbindlich, werden aber explizit als Grundlage für zukünftige detaillierte Leitlinien in beiden Rechtsräumen positioniert.
Die Prinzipien adressieren den gesamten Lebenszyklus von Arzneimitteln:
frühe Forschung und Target‑Identifikation
präklinische Modelle und Toxikologie
Planung und Durchführung klinischer Studien
Herstellung, Prozessüberwachung und Qualitätskontrolle
Post‑Marketing‑Surveillance und Pharmakovigilanz
Damit geht der Rahmen deutlich über „Einzel‑Use‑Cases“ hinaus und etabliert eine horizontale Sicht auf KI als Querschnittstechnologie in der regulierten Entwicklung und Nutzung von Arzneimitteln.
Die zehn Leitprinzipien in der Übersicht
Die gemeinsamen Leitlinien lassen sich – in der heute veröffentlichten Fassung – auf folgende Kernprinzipien verdichten:
Human‑centric by design – KI‑Systeme müssen den Menschen unterstützen, nicht ersetzen; kritische Entscheidungen bleiben in menschlicher Verantwortung.
Risk‑based approach – Validierung, Monitoring und regulatorische Anforderungen richten sich nach Risiko, Kritikalität und Kontext des KI‑Einsatzes.
Adherence to standards – einschlägige technische, wissenschaftliche und regulatorische Standards (z. B. GxP, ICH‑Guidelines, Daten‑ und IT‑Standards) sind anzuwenden.
Clear context of use – der Einsatzzweck eines KI‑Systems muss klar definiert, dokumentiert und gegenüber Regulatoren konsistent kommuniziert werden.
Multidisciplinary expertise – Entwicklung und Betrieb von KI erfordern interdisziplinäre Teams (Data Science, Biostatistik, klinische Expertise, Regulierung, Qualität, IT‑Sicherheit).
Data governance and documentation – robuste Datenqualität, Datenintegrität und Nachvollziehbarkeit über den gesamten Datenlebenszyklus hinweg.
Model design and development practices – systematische, gut dokumentierte Vorgehensweisen bei Modellwahl, Training, Validierung und Updates.
Risk‑based performance assessment – kontinuierliche und risikoadäquate Bewertung der Leistungsfähigkeit, inkl. Fehlerraten, Bias und Generalisierbarkeit.
Life‑cycle management – Überwachung, Wartung und Re‑Validierung von KI‑Systemen über deren gesamten Lebenszyklus, inkl. Umgang mit Daten‑ und Konzept‑Drift.
Clear, essential information – transparente, adressatengerechte Informationen über Funktionsweise, Grenzen und Unsicherheiten für Nutzer und – wo relevant – Patienten.
Diese Prinzipien orientieren sich erkennbar an bereits etablierten Konzepten der „Good Machine Learning Practice“ für Medizinprodukte, werden nun aber erstmals explizit und gemeinsam für den Bereich der Arzneimittelentwicklung formuliert.
Detaillierte Analyse: Auswirkungen, Risiken und Chancen
1. De‑facto Referenzrahmen für globale KI‑Programme
Auch wenn die Leitprinzipien formal nur FDA‑ und EMA‑Domänen adressieren, ist absehbar, dass sie zum globalen De‑facto‑Standard für KI in der Arzneimittelentwicklung werden. Gründe:
Große Pharmaunternehmen arbeiten ohnehin global und harmonisieren interne Standards selten nur für einzelne Regionen.
Andere Regulierungsbehörden orientieren sich erfahrungsgemäß an FDA/EMA‑Vorgaben, insbesondere bei komplexen, technologiegetriebenen Themen.
Internationale Harmonisierungsgremien (z. B. ICH) erhalten mit diesen Prinzipien eine klare inhaltliche Ausgangsbasis.
Konsequenz: Unternehmen, die KI‑Plattformen, Datenstrategien und klinische Entwicklungsprogramme heute nach diesen Prinzipien ausrichten, reduzieren das Risiko späterer, teurer Anpassungen.
2. Verschiebung von „Experimenten“ zu strukturierten KI‑Programmen
Viele Organisationen nutzen KI bisher in Form verteilter Pilotprojekte: einzelne Teams experimentieren mit Modellen für Rekrutierungsprognosen, Bildauswertung oder Text‑Mining in Sicherheitsberichten. Die neuen Prinzipien erzwingen eine Professionalisierung dieser Aktivitäten:
Weg von isolierten Piloten hin zu programmatischer Governance (zentrales KI‑Register, Portfolio‑Steuerung, standardisierte Validierungsprozesse).
Einführung formaler Rollen wie „AI Product Owner“ für regulierte Use Cases.
Systematische Einbindung von Quality, Regulatory Affairs und IT‑Security bereits in der Konzeption.
Für Entscheidungsträger bedeutet das: KI wird endgültig vom „Innovationsexperiment“ zum integralen Bestandteil des regulierten Entwicklungs‑ und Herstellungsprozesses.
3. Anpassungsdruck auf GxP‑Systeme und ‑Prozesse
Die Prinzipien adressieren explizit GxP‑relevante Bereiche – etwa Datenintegrität, dokumentierte Modelländerungen, Audit‑Trails und Change‑Control. Damit entstehen unmittelbare Anforderungen an:
CSV / CSA (Computerized System Validation / Assurance): KI‑basierte Systeme benötigen risikobasierte Validierung, die sich von klassischen deterministischen Systemen unterscheidet (z. B. Umgang mit stochastischem Verhalten, Trainingsdaten‑Versionierung).
SOP‑Landschaft: Neue oder angepasste SOPs für Modelltraining, Re‑Training, Drift‑Monitoring, Incident‑Handling und Decommissioning von Modellen.
Lieferanten‑ und Cloud‑Management: KI‑Dienstleister, Modellplattformen und Cloud‑Infrastruktur müssen in GxP‑Lieferantenqualifizierungsprozesse integriert werden.
Wer hier nicht proaktiv handelt, riskiert mittelfristig Finding‑Risiken bei Inspektionen und Verzögerungen in Zulassungsverfahren.
4. Klarer Fokus auf Datenqualität und Datenherkunft
Mit dem separaten Prinzip zu „Data governance and documentation“ signalisieren die Behörden, dass Datenqualität und ‑integrität der entscheidende Hebel für vertrauenswürdige KI sind.
Implikationen:
Klinische und nicht‑klinische Datenlandschaften müssen hinsichtlich Vollständigkeit, Konsistenz und Provenienz kritisch überprüft werden.
Für synthetische Daten, generative Modelle oder Transfer‑Learning sind detaillierte Dokumentation und Begründung notwendig, wie diese Ansätze Bias minimieren und Generalisierbarkeit sichern.
RWD/RWE‑Projekte mit KI‑Komponenten (z. B. Signal Detection aus EHR‑Daten) müssen deutlich stärker in etablierte Data‑Governance‑Strukturen eingebettet werden.
5. Neue Anforderungen an Erklärbarkeit und Kommunikation
Das Prinzip „Clear, essential information“ adressiert die Frage, wie Ergebnisse von KI‑Systemen kommuniziert werden – intern, gegenüber Prüfern und, falls relevant, gegenüber Patienten.
Daraus ergeben sich u. a.:
Anforderungen an Modellerklärbarkeit (z. B. Feature‑Importance, Plausibilitätschecks, Limitationsbeschreibungen).
Standardisierte Formate für die Darstellung von KI‑Unterstützung in Studienprotokollen, Statistical Analysis Plans und Modul‑2/5‑Dossiers.
Governance, wer welche KI‑Informationen in welcher Tiefe erhält (Data Scientists vs. Study Teams vs. Inspektoren).
Für „Black‑Box‑Modelle“ bedeutet dies nicht zwangsläufig ein Verbot, wohl aber die Pflicht, ihre Grenzen nachvollziehbar zu benennen und geeignete Kompensationsmaßnahmen (z. B. strengere Performance‑Monitoring‑Regeln) zu implementieren.
6. Chancen: Beschleunigung und Reduktion von Tierversuchen
In den begleitenden Kommentaren der Behörden wird deutlich, dass KI explizit als Hebel gesehen wird, Time‑to‑Market zu verkürzen und Tierversuche zu reduzieren, etwa durch:
bessere in‑silico‑Toxizitätsmodelle,
optimierte Studiendesigns (Adaptive Designs, bessere Endpunkt‑Selektion),
zielgerichtetere Rekrutierung und Standortauswahl,
frühzeitige Identifikation nicht erfolgversprechender Kandidaten.
Unternehmen, die diese Ziele regulatorisch sauber argumentieren können, werden bei Einreichungen voraussichtlich positiv wahrgenommen – vorausgesetzt, sie halten die neuen Prinzipien konsequent ein.
Praktische Beispiele und Szenarien
Beispiel 1: KI‑gestützte Patientenrekrutierung in einer Phase‑III‑Studie
Ein globales Pharmaunternehmen nutzt ein Machine‑Learning‑Modell, um in EHR‑Daten potenzielle Studienteilnehmer zu identifizieren und Zentren mit hoher Rekrutierungswahrscheinlichkeit zu priorisieren.
Relevante Prinzipien: Risk‑based approach, Data governance, Clear context of use, Risk‑based performance assessment.
Konkrete Umsetzung:
- Der Kontext wird klar definiert: „Unterstützung bei der Identifikation potenziell geeigneter Zentren; finaler Einschlussentscheid bleibt beim Prüfarzt.“
- Datenquellen (EHR‑Systeme, Claims‑Daten) werden hinsichtlich Datenqualität, Kodierung und Bias systematisch bewertet und dokumentiert.
- Performance‑Metriken (z. B. PPV, Sensitivität nach Untergruppen) werden für die initiale Validierung und das laufende Monitoring festgelegt.
- Es existiert ein Plan, wie das Modell bei Drift (z. B. Kodieränderungen, neue Standardtherapien) angepasst und erneut validiert wird.
Ergebnis: Das Unternehmen kann im Dossier konsistent darlegen, wie KI eingesetzt wurde, welche Limitationen bestehen und wie Bias adressiert wurde – im Einklang mit den Leitprinzipien.
Beispiel 2: KI‑basierte Bildauswertung in Onkologie‑Studien
Ein Biotech nutzt Deep‑Learning‑Modelle, um Tumorgrößen auf CT‑Scans zu quantifizieren und Response‑Kriterien objektiver zu bewerten.
Relevante Prinzipien: Human‑centric by design, Model design and development practices, Life‑cycle management, Clear, essential information.
Konkrete Umsetzung:
- Radiologen behalten die endgültige Verantwortung; KI fungiert als „zweiter Leser“.
- Trainingsdaten, Preprocessing, Modellarchitektur und Versionierung werden GxP‑konform dokumentiert.
- SOPs regeln, wann ein Scan zwingend manuell zu reviewen ist (z. B. bei Unsicherheitsindikatoren des Modells).
- Im Studienprotokoll und SAP wird transparent beschrieben, wie KI‑Ausgaben in Endpunktberechnungen einfließen.
So kann das Unternehmen belegen, dass KI nicht als unkontrollierte Black Box eingesetzt wird, sondern kontrolliert, dokumentiert und im Rahmen eines risikobasierten Ansatzes.
Beispiel 3: KI‑gestütztes Prozess‑Monitoring in der Biologika‑Herstellung
Ein Hersteller von Biologika setzt prädiktive Modelle ein, um Prozessabweichungen frühzeitig zu erkennen und Batch‑Ausfälle zu vermeiden.
Relevante Prinzipien: Adherence to standards, Data governance, Risk‑based performance assessment, Life‑cycle management.
Konkrete Umsetzung:
- Integration in bestehende GMP‑Systeme inkl. Audit‑Trail, Change‑Control und periodischer Review.
- Validierung gegen historische Chargen, definierte Akzeptanzkriterien und klare SOPs für das Handeln bei Alerts.
- Kontinuierliches Monitoring der False‑Positive/False‑Negative‑Raten; Anpassung der Schwellwerte nach definierten Kriterien.
Damit kann das Unternehmen gegenüber Inspektoren argumentieren, dass KI die Prozessrobustheit erhöht, ohne GxP‑Grundsätze zu verletzen.
Business‑Relevanz: Was Unternehmen jetzt konkret tun sollten
1. KI‑Inventur und Gap‑Analyse durchführen
Kurzfristig sollten Unternehmen eine strukturierte Bestandsaufnahme aller KI‑Anwendungen in der Arzneimittelentwicklung vornehmen:
Welche Modelle sind wo im Einsatz (Research, Clinical, CMC, PV)?
Welche Datensätze werden genutzt, unter welchen Governance‑Regeln?
Welche Modelle beeinflussen direkt oder indirekt regulatorisch relevante Entscheidungen oder Einreichungen?
Anschließend ist eine Gap‑Analyse gegen die zehn Prinzipien durchzuführen – idealerweise gemeinsam mit Quality und Regulatory Affairs.
2. Governance‑Struktur für regulierte KI etablieren
Unternehmen benötigen eine klare Governance‑Architektur für KI in regulierten Kontexten:
Einrichtung eines AI Governance Boards mit Vertretern aus R&D, Quality, Regulatory, Datenschutz, IT/OT und Ethics.
Definition eines KI‑Policy‑Rahmens, der die zehn Prinzipien explizit referenziert.
Einführung eines AI Lifecycle Management Frameworks (von Use‑Case‑Ideation bis Decommissioning).
Für global agierende Organisationen sollte dieser Rahmen regionsübergreifend konsistent sein, um Fragmentierung zu vermeiden.
3. SOPs, Schulungen und Rollenprofile anpassen
Die Leitprinzipien lassen sich ohne operationalisierte Prozesse nicht wirksam umsetzen:
Entwicklung oder Anpassung von SOPs zu Modellentwicklung, Validierung, Monitoring, Änderungsmanagement und Dokumentation.
Schulungsprogramme für Study Teams, Statistiker, Medical Safety und QA, um Verständnis für KI‑Limitationen und ‑Pflichten zu schaffen.
Schärfung von Rollenprofilen (z. B. „Responsible AI Lead“, „AI Validation Specialist“), insbesondere in GxP‑Bereichen.
4. Lieferketten und Partnerschaften überprüfen
Viele KI‑Lösungen werden durch externe Partner bereitgestellt – von Cloud‑Plattformen bis zu spezialisierten KI‑Start‑ups.
Überprüfung bestehender Verträge und Qualitätsvereinbarungen daraufhin, ob sie Daten‑Governance, Modell‑Transparenz, Audit‑Rechte und Change‑Control ausreichend adressieren.
Aufnahme der zehn Prinzipien in Vendor‑Qualifizierungskriterien.
Bevorzugung von Anbietern, die bereits eigene GxP‑fähige AI‑Governance nachweisen können.
5. KI‑Roadmap mit regulatorischen Entwicklungen synchronisieren
Da FDA und EMA explizit ankündigen, auf Basis dieser Prinzipien weitere detaillierte Leitlinien zu erarbeiten, sollten Unternehmen ihre KI‑Roadmaps dynamisch an diese Entwicklung knüpfen:
Priorisierung von Projekten, die kurz‑ bis mittelfristig in Einreichungen einfließen.
Aufbau modularer, dokumentierter KI‑Plattformen, die sich an neue regulatorische Anforderungen anpassen lassen.
Aktive Teilnahme an Konsultationen, Workshops und Pilotprogrammen der Behörden, um Anforderungen frühzeitig zu verstehen.
Fazit: KI‑Einsatz professionalisieren, nicht bremsen
Die gemeinsamen Leitprinzipien von FDA und EMA sind weniger als „Bremse“ für KI zu verstehen, sondern als Strukturierungsrahmen. Sie machen klar, unter welchen Bedingungen KI in der Arzneimittelentwicklung akzeptiert wird – und wo rote Linien verlaufen.
Für Unternehmen ergibt sich daraus ein doppelter Imperativ: Einerseits müssen sie bestehende KI‑Anwendungen kritisch gegen die neuen Prinzipien spiegeln und Lücken zeitnah schließen. Andererseits gewinnen sie mit dem Rahmen die notwendige Planungssicherheit, um ambitionierte KI‑Programme in Forschung, Entwicklung, Herstellung und Pharmakovigilanz skalierbar aufzubauen.
Zentrale Takeaways für Entscheider
Regulatorische Weichenstellung: Die zehn Leitprinzipien von FDA und EMA etablieren einen global relevanten Rahmen für „Good AI Practice“ in der Arzneimittelentwicklung.
Pflicht zur Professionalisierung: KI‑Pilotprojekte müssen in strukturierte, GxP‑fähige Programme mit klarer Governance, SOPs und Lifecycle‑Management überführt werden.
Daten als Risikofaktor: Datenqualität, Herkunft und Governance rücken in den Mittelpunkt der regulatorischen Bewertung von KI‑Use‑Cases.
Lieferketten unter Beobachtung: KI‑Dienstleister und Cloud‑Anbieter werden zu regulierten Partnern; ihre Auswahl und Steuerung beeinflusst direkt das Zulassungsrisiko.
Strategischer Vorteil für Frühstarter: Unternehmen, die ihre KI‑Roadmaps jetzt an den Leitprinzipien ausrichten, sichern sich Tempo‑Vorteile bei Einreichungen und Inspektionen.
Investitionen werden planbarer: Der gemeinsame Rahmen reduziert regulatorische Unsicherheit und erleichtert die Skalierung von KI‑basierten R&D‑ und Automatisierungsplattformen in regulierten Märkten.
Häufig gestellte Fragen (FAQ)
Was sind die neuen Leitprinzipien von FDA und EMA für KI in der Arzneimittelentwicklung?
Die FDA und EMA haben zehn gemeinsame „Guiding Principles of Good AI Practice in Drug Development“ veröffentlicht, die den sicheren und regelkonformen Einsatz von KI entlang des gesamten Arzneimittel‑Lebenszyklus definieren. Sie betreffen unter anderem Menschzentrierung, risikobasierte Validierung, Daten-Governance, Modellentwicklung, Lebenszyklusmanagement und Transparenz gegenüber Nutzern und Patienten.
Wie beeinflussen die Leitprinzipien bestehende KI‑Projekte in Pharma, Biotech und Medtech?
Bestehende KI‑Projekte müssen künftig strengeren Anforderungen an Dokumentation, Validierung, Datenqualität und Governance genügen. Pilotprojekte ohne klare Verantwortlichkeiten oder unzureichende GxP‑Einbettung laufen Gefahr, bei Inspektionen zu Findings zu führen oder Zulassungsverfahren zu verzögern.
Welche konkreten Anpassungen an GxP‑Systemen und Prozessen werden jetzt erforderlich?
Unternehmen müssen ihre Computerized System Validation/Assurance (CSV/CSA) auf KI‑spezifische Risiken ausrichten, etwa stochastisches Verhalten und Trainingsdaten‑Versionierung. Zudem sind neue oder angepasste SOPs für Modellentwicklung, Re‑Training, Drift‑Monitoring, Incident‑Handling sowie eine engere Einbindung von Lieferanten- und Cloud‑Management in GxP‑Prozesse notwendig.
Welche Rolle spielt Datenqualität im Rahmen der neuen KI‑Leitprinzipien?
Datenqualität und Datenherkunft werden als zentraler Risikofaktor für vertrauenswürdige KI hervorgehoben. Klinische, präklinische und Real‑World‑Daten müssen hinsichtlich Vollständigkeit, Konsistenz, Bias und Provenienz systematisch geprüft und über den gesamten Datenlebenszyklus dokumentiert werden – insbesondere bei synthetischen Daten oder Transfer‑Learning‑Ansätzen.
Was ist der Unterschied zwischen bisherigen KI‑Piloten und den nun geforderten strukturierten KI‑Programmen?
Bisherige KI‑Piloten sind oft lokal begrenzte Experimente ohne zentrale Steuerung oder einheitliche Standards. Die Leitprinzipien verlangen hingegen programmatische Governance mit KI‑Registern, definierten Rollen wie AI Product Owner, standardisierten Validierungsprozessen und einem durchgängigen Lifecycle‑Management von der Idee bis zur Außerbetriebnahme.
Welche Chancen sehen die Behörden im KI‑Einsatz für die Arzneimittelentwicklung?
Behörden betonen, dass KI Time‑to‑Market verkürzen und Tierversuche reduzieren kann, etwa durch bessere in‑silico‑Modelle, optimierte Studiendesigns und zielgenauere Rekrutierung. Unternehmen, die diese Potenziale nutzen und zugleich die Leitprinzipien konsequent erfüllen, können regulatorische Akzeptanz und Tempo‑Vorteile bei Einreichungen erzielen.
Was sollten Life‑Sciences‑Unternehmen jetzt konkret tun, um konform zu bleiben?
Unternehmen sollten zuerst eine KI‑Inventur und Gap‑Analyse gegen die zehn Leitprinzipien durchführen. Darauf aufbauend sind eine KI‑Governance-Struktur (z. B. AI Governance Board), angepasste SOPs und Schulungen, überarbeitete Lieferantenqualifizierung sowie eine mit den erwarteten Detailleitlinien synchronisierte KI‑Roadmap aufzusetzen.
