US Treasury veröffentlicht Financial Services AI Risk Management Framework: Was Finanzinstitute jetzt konkret tun müssen

01.03.2026

Das US‑Finanzministerium hat ein speziell für Banken, Versicherer und andere Finanzdienstleister entwickeltes Financial Services AI Risk Management Framework (FS AI RMF) sowie ein einheitliches AI‑Lexikon veröffentlicht. Der Rahmen adaptiert das NIST AI RMF für Finanzmarktanforderungen und ist eng mit dem von der Cyber Risk Institute entwickelten CRI Profile verknüpft. Für international tätige Institute entsteht damit ein faktischer Referenzstandard, wie KI‑Risiken entlang des gesamten Lebenszyklus gesteuert, dokumentiert und gegenüber Aufsehern nachgewiesen werden sollen – mit unmittelbaren Implikationen auch für EU‑Häuser im Kontext von AI Act, DORA und bestehender Modell‑Governance.

US Treasury veröffentlicht Financial Services AI Risk Management Framework: Was Finanzinstitute jetzt konkret tun müssen


Kontext und Einordnung

Am 19. Februar 2026 hat das US‑Finanzministerium (US Department of the Treasury) zwei Ressourcen für den Finanzsektor veröffentlicht: ein Financial Services AI Risk Management Framework (FS AI RMF) sowie ein gemeinsames Artificial‑Intelligence‑Lexikon für Finanzinstitute. Beide Instrumente zielen darauf ab, Begriffe zu vereinheitlichen und ein sektor­spezifisches Vorgehen für das Management von KI‑Risiken zu etablieren.

Das FS AI RMF wurde im Rahmen des Financial and Banking Information Infrastructure Committee und in enger Zusammenarbeit mit der Cyber Risk Institute (CRI) erarbeitet, die bereits das weithin anerkannte CRI Profile für Cyber‑ und Technologierisiken im Finanzsektor verantwortet. Damit wird das allgemeine NIST AI Risk Management Framework für die Besonderheiten regulierter Finanzunternehmen operationalisiert.

Für europäische und global agierende Institute ist das mehr als ein US‑Detail: Es entsteht ein de‑facto‑Standard, den US‑Aufseher als Referenz heranziehen werden und an dem sich internationale Häuser im Zusammenspiel mit EU‑Regulierung (AI Act, DORA) und eigenen Modell‑Governance‑Rahmen ausrichten sollten.


Was ist neu am FS AI RMF?


1. Sektor‑spezifische Adaption des NIST AI RMF

Statt ein weiteres generisches Rahmenwerk zu schaffen, übersetzt das FS AI RMF das NIST AI RMF in konkrete Anforderungen für Finanzdienstleister:

  • Fokussierung auf Anwendungsfälle wie Kreditvergabe, Betrugserkennung, Geldwäsche‑Monitoring, Underwriting, Markt‑ und Kreditrisikomodelle, Personalentscheidungen und Kundeninteraktion.

  • Verknüpfung mit aufsichtsrechtlichen Pflichten (z. B. Verbraucherschutz, Diskriminierungsverbote, Sicherheits‑ und Resilienzanforderungen, Datenhaltung und Outsourcing).

  • Lebenszyklus‑Orientierung von Business‑Idee über Modellentwicklung, Deployment, Betrieb bis Stilllegung inklusive Change‑Management.


Für Institute bedeutet das: Bestehende Modell‑Risikorahmen (Model Risk Management, z. B. nach SR 11‑7) müssen um KI‑spezifische Kontrollpunkte ergänzt und mit dem FS AI RMF abgeglichen werden.


2. Einheitliches AI‑Lexikon für Regulatoren und Institute

Das parallel veröffentlichte Lexikon definiert zentrale Begriffe und Risikokategorien rund um KI im Finanzsektor. Ziel ist, Missverständnisse zwischen Fachbereich, IT, Compliance, Recht und Aufsicht zu reduzieren, etwa bei:

  • Definition von „AI system“, „ML model“, „training data“, „explainability“,

  • Abgrenzung von Hochrisiko‑Anwendungen vs. experimentellen oder Support‑Systemen,

  • Klassifikation von Bias‑, Robustheits‑, Datenschutz‑ und Sicherheitsrisiken.


Für global tätige Institute eröffnet das die Möglichkeit, Begriffsdefinitionen in Policies, Verträgen und Kontrollkatalogen stärker zu harmonisieren und mit EU‑Begriffen aus dem AI Act abzugleichen.


3. Enge Verzahnung mit bestehenden Cyber‑ und Technologierahmen

Die Cyber Risk Institute positioniert das FS AI RMF neben ihrem CRI Profile als weiteren Standard‑Baustein für den Finanzsektor. In der Praxis entstehen so:

  • Mappings zwischen Cyber‑Kontrollen und AI‑Kontrollen,

  • die Grundlage, AI‑Risiken im selben Governance‑ und Reporting‑Rahmen zu steuern wie Informationssicherheit und operative Resilienz,

  • eine Brücke zu neuen Anforderungen, z. B. NIST Cybersecurity Framework 2.0 mit AI‑Profilen sowie SEC‑Prüfschwerpunkten zu KI‑ und Cyberrisiken.


Beispiel: Anbieter wie VectorCertain haben bereits angekündigt, 230 AI‑Kontrollziele aus dem FS AI RMF mit 278 Cyber‑Kontrollpunkten des CRI Profiles in einer gemeinsamen Steuerungslogik zu konsolidieren. Das unterstreicht, dass Aufseher KI‑Risiken nicht isoliert, sondern im Kontext von Cyber‑ und Betriebsrisiken betrachten.


Kritische Punkte: Detect‑and‑Respond‑Fokus und Präventionslücke

Externe Analysen des FS AI RMF kommen zu dem Schluss, dass rund 97 % der 230 Kontrollziele im Modus „Detect and Respond“ arbeiten – also auf Erkennung und Reaktion setzen. Präventive Kontrollen, die unerwünschte KI‑Aktionen vor Ausführung technisch verhindern, seien deutlich unterrepräsentiert.

Relevanz für Institute:

  • Das Framework ist aufsichts‑ und kontrollgetrieben, weniger technologie‑präventiv.

  • Bei hochdynamischen Szenarien wie autonomen Agenten, generativer KI in Echtzeit‑Kanälen oder automatisierten Handelsstrategien kann ein reines Detect‑and‑Respond‑Setup zu langsam sein.

  • Anbieter beginnen, „Prevention‑Paradigmen“ zu propagieren, die KI‑Aktionen technisch blockieren oder nur in einem eng kontrollierten Policy‑Raum zulassen.


Organisationen sollten daher das FS AI RMF zwar als Mindestmaßstab verstehen, aber intern die Balance zwischen Detection und Prävention bewusst nachschärfen.


Praxisfolgen für Banken, Versicherer und andere Finanzakteure


1. Gap‑Analyse und Mapping

Ein erster konkreter Schritt ist eine strukturierte Gap‑Analyse:

  • Mapping bestehender Model‑Risk‑Policies, AI‑Guidelines und Cyber‑Kontrollrahmen gegen die Steuerungsziele des FS AI RMF.

  • Identifikation von Doppelstrukturen (z. B. Validierung, Monitoring) und Lücken (z. B. dokumentierte Impact‑Assessments für AI‑Use‑Cases, Third‑Party‑AI‑Risiken).

  • Dokumentation, welche AI‑Use‑Cases welche Kontrollziele adressieren oder verletzen könnten.


Für Institute mit US‑Aktivitäten wird dieses Mapping zur Grundlage, um Prüfungen durch US‑Regulatoren (z. B. SEC, Fed, OCC, CFPB) effektiv zu bedienen.


2. Lebenszyklus‑Governance für AI etablieren oder nachschärfen

Das Framework ist explizit lebenszyklusorientiert. Institute sollten Governance daher entlang folgender Schritte strukturieren:

  • Ideation & Business Case: Klassifikation des Use‑Cases (z. B. Hochrisiko‑Anwendung), Definition von Zielen und Risikoappetit.

  • Design & Entwicklung: Datenquellen‑Freigabe, Feature‑Governance, Dokumentation von Trainings‑ und Testumgebungen, Bias‑Checks.

  • Validierung: Unabhängige Überprüfung von Performance, Robustheit, Fairness, Erklärbarkeit.

  • Deployment: Freigabeprozesse, Roll‑out‑Strategien, technische Schutzmaßnahmen (z. B. Zugriffskontrollen, Guardrails).

  • Monitoring & Incident‑Management: Laufende Überwachung, KPIs, Schwellenwerte, klare Playbooks bei Abweichungen.

  • Retirement: Geordnete Stilllegung, Archivierung, Umgang mit Modellen und Daten.


Beispiel: Eine Retail‑Bank, die KI‑gestützte Kreditentscheidungen einführt, muss nach FS AI RMF über den gesamten Prozess hinweg Nachweisketten etablieren, die Diskriminierung, Modell‑Drift und unzulässige Datennutzung adressieren.


3. Verzahnung mit EU AI Act, DORA und lokaler Aufsicht

Für EU‑Institute mit US‑Bezug stellt sich unmittelbar die Frage der Regelwerks‑Harmonisierung:

  • Der EU AI Act klassifiziert viele Finanzanwendungen als Hochrisiko‑Systeme und verlangt u. a. Risikomanagement, Daten‑ und Datenqualitäts‑Governance, Transparenz, menschliche Aufsicht und Robustheitsprüfungen.

  • DORA fokussiert auf digitale operationelle Resilienz, inklusive IKT‑Risiken, Third‑Party‑Management und Incident‑Reporting.

  • Nationale Aufseher (z. B. EZB/SSM, BaFin) intensivieren ihre Erwartungen an Modell‑Risiko‑Management und KI‑Governance.


Das FS AI RMF kann hier als Brückenrahmen dienen, um Anforderungen aus US‑ und EU‑Perspektive in einem integrierten Kontrollkatalog zusammenzuführen, statt parallele Governance‑Silos zu betreiben.


4. Lieferketten‑ und Drittparteirisiken

Da viele KI‑Lösungen als Cloud‑ oder Plattformservices bezogen werden, setzt das FS AI RMF implizit einen stärkeren Fokus auf:

  • Due‑Diligence‑Prozesse für Anbieter von KI‑Modellen, Daten und Infrastruktur,

  • vertragliche Verankerung von Audit‑Rechten, Transparenzpflichten und Incident‑Meldefristen,

  • die Fähigkeit, Output externer KI‑Systeme (z. B. generative Modelle, Scores von Drittanbietern) in eigene Kontrollprozesse einzubetten.


Ein praktischer Anwendungsfall ist die Integration von betrugs‑ und AML‑Lösungen externer Anbieter in bestehende Überwachungs‑ und Reporting‑Systeme, ohne dass Verantwortlichkeiten verwischen.


Konkrete Handlungsempfehlungen für Entscheider

  1. Ownership klären: Festlegen, wer im Haus die Federführung für FS AI RMF‑Umsetzung übernimmt (z. B. Chief Risk Officer mit AI‑Governance‑Funktion, unterstützt durch CISO und CIO).

  2. AI‑Use‑Case‑Inventar aktualisieren: Vollständige Übersicht aller produktiven und geplanten KI‑Anwendungen inklusive Klassifikation nach Risiko und Geschäftsrelevanz.

  3. Framework‑Mapping aufsetzen: FS AI RMF, CRI Profile, NIST AI RMF, EU AI Act und bestehende interne Policies in einem gemeinsamen Kontrollkatalog konsolidieren.

  4. Präventionslücke adressieren: Prüfen, wo über Detection‑Mechanismen hinaus präventive technische Kontrollen erforderlich sind (z. B. Policy‑Enforcement‑Layer, Sandboxes für autonome Agenten, strikte Zugriffs‑ und Aktionskontrollen).

  5. Board‑Reporting schärfen: KI‑Risiken in die bestehende Risikoberichterstattung an Vorstand und Aufsichtsorgane integrieren, inklusive Kennzahlen zu Abhängigkeiten, Vorfällen und Compliance‑Status.


Fazit

Mit dem FS AI RMF und dem gemeinsamen AI‑Lexikon schafft das US Treasury einen praktischen Referenzrahmen für den Einsatz von KI im Finanzsektor. Für international tätige Banken und Versicherer ist das Signal eindeutig: KI‑Risiken werden künftig ähnlich strukturiert, prüfbar und nachweisbar zu steuern sein wie klassische Modell‑ und Cyberrisiken.

Die Aufgabe für Entscheider besteht nun darin, dieses Rahmenwerk nicht nur formal zu „mappen“, sondern in konkrete Prozesse, Kontrollen und Technologien zu übersetzen – und dabei die erkennbare Präventionslücke bewusst zu schließen. Wer jetzt seine AI‑Governance konsequent an FS AI RMF, EU AI Act und bestehenden Cyber‑Rahmen ausrichtet, schafft die Grundlage, KI skalierbar, regelkonform und zugleich geschäftsrelevant einzusetzen.


Häufig gestellte Fragen (FAQ)


Was ist das Financial Services AI Risk Management Framework (FS AI RMF)?

Das FS AI RMF ist ein vom US-Finanzministerium veröffentlichtes Rahmenwerk zur Steuerung von KI-Risiken speziell für Banken, Versicherer und andere Finanzdienstleister. Es übersetzt das allgemeine NIST AI RMF in konkrete, sektorspezifische Anforderungen entlang des gesamten Lebenszyklus von KI-Systemen.


Wie funktioniert das FS AI RMF in der Praxis für Finanzinstitute?

Das FS AI RMF orientiert sich am Lebenszyklus eines KI-Use-Cases – von der Idee über Entwicklung, Validierung und Deployment bis zur Stilllegung. Institute sollen für jede Phase klare Governance-Prozesse, Kontrollen und Nachweise etablieren, etwa zu Datenfreigabe, Bias-Tests, Modellvalidierung, Monitoring und Incident-Management.


Welche Auswirkungen hat das FS AI RMF auf europäische Banken und Versicherer?

Für EU-Institute mit US-Aktivitäten entwickelt sich das FS AI RMF zu einem faktischen Referenzstandard für Aufsichtsprüfungen. Gleichzeitig bietet es eine Brücke, um Anforderungen aus EU AI Act, DORA und nationaler Modell-Governance in einem integrierten Kontrollrahmen zu bündeln, statt parallele Silos zu betreiben.


Was ist der Unterschied zwischen NIST AI RMF und FS AI RMF?

Das NIST AI RMF ist ein branchenübergreifendes, generisches Rahmenwerk für KI-Risikomanagement. Das FS AI RMF baut darauf auf, konkretisiert aber Anforderungen für regulierte Finanzinstitute, verknüpft sie mit aufsichtsrechtlichen Pflichten und mappt sie eng an bestehende Standards wie das CRI Profile.


Warum wird beim FS AI RMF von einer Präventionslücke gesprochen?

Analysen zeigen, dass der Großteil der rund 230 Kontrollziele auf Erkennung und Reaktion („Detect and Respond“) ausgerichtet ist. Technische Präventionsmechanismen, die unerwünschte KI-Aktionen vor ihrer Ausführung blockieren, sind unterrepräsentiert, was bei hochdynamischen KI-Anwendungen ein Risiko darstellen kann.


Wie hängt das FS AI RMF mit dem CRI Profile und Cyber-Risikomanagement zusammen?

Das FS AI RMF ist eng mit dem bestehenden CRI Profile für Cyber- und Technologierisiken verzahnt. Dadurch können Institute AI- und Cyberkontrollen in einer gemeinsamen Governance- und Reporting-Logik steuern und KI-Risiken konsistent mit Informationssicherheits- und Resilienzanforderungen adressieren.


Was sollten Finanzinstitute jetzt konkret tun, um das FS AI RMF umzusetzen?

Institute sollten zunächst ein vollständiges Inventar ihrer KI-Use-Cases erstellen und eine Gap-Analyse gegenüber FS AI RMF, CRI Profile, NIST AI RMF und EU AI Act durchführen. Darauf aufbauend sind ein konsolidierter Kontrollkatalog, klare Verantwortlichkeiten, der Ausbau präventiver technischer Kontrollen sowie ein angepasstes Board-Reporting zu KI-Risiken notwendig.