Vietnam führt erstes sektorales KI-Regelwerk für Banken ein: Was internationale Institute jetzt tun müssen

25.02.2026

Die State Bank of Vietnam (SBV) hat am 25. Februar 2026 einen Entwurf für ein Rundschreiben vorgelegt, das den Einsatz von KI im Bankensektor umfassend reguliert. Der Entwurf konkretisiert die parallel zum 1. März 2026 in Kraft tretende nationale KI‑Gesetzgebung für Finanzakteure und enthält detaillierte Vorgaben zu Sicherheit, Risikomanagement, Transparenz und Kundenschutz – mit Übergangsfristen bis 2027 für bestehende KI‑Systeme. Für internationale Banken, Payment-Dienstleister und FinTechs ist dies ein unmittelbarer Compliance‑Trigger und ein Signal für eine sich schnell verdichtende sektorale KI‑Regulierung weltweit.

Vietnam führt erstes sektorales KI-Regelwerk für Banken ein: Was internationale Institute jetzt tun müssen


Einordnung: Warum der vietnamesische Entwurf relevant ist

Die State Bank of Vietnam (SBV) hat am 25. Februar 2026 einen Entwurf für ein Rundschreiben veröffentlicht, das den Einsatz von KI im gesamten Bankensektor reguliert. Das Rundschreiben ergänzt das neue vietnamesische KI-Gesetz, das zum 1. März 2026 in Kraft tritt und AI‑Systeme u. a. in der Finanzbranche einem risikobasierten Rahmen unterstellt.

Adressiert werden Kreditinstitute, Niederlassungen ausländischer Banken, Zahlungsdienstleister, Auskunfteien sowie weitere zentrale Finanzinfrastrukturen. Für bereits produktiv eingesetzte KI‑Systeme sieht der Entwurf eine Übergangsfrist bis September 2027 vor.

Für internationale Banken und FinTechs mit Aktivitäten in Vietnam ist dies nicht nur ein lokaler Compliance‑Fall, sondern ein Indikator, dass sektorale KI‑Regulierung – ähnlich wie bei Datenschutz oder Zahlungsverkehr – schnell global Schule machen dürfte.


Zentrale Inhalte des Entwurfs


Anwendungsbereich und Verknüpfung mit nationalem KI‑Gesetz

Der Entwurf konkretisiert die sektorspezifischen Pflichten des neuen KI‑Gesetzes für die Finanzbranche. Betroffen sind insbesondere KI‑Systeme in folgenden Feldern:

  • Kundeninteraktion (Chatbots, Sprachassistenten, automatisierte Hotlines)

  • Kreditprüfung, Scoring, Betrugserkennung

  • eKYC und biometrische Verfahren

  • Risikomodellierung, Markt- und Liquiditätsrisiko


Damit entsteht ein klar abgegrenzter Pflichtenkanon für Finanzakteure, der über generische AI‑Governance‑Rahmen hinausgeht.


Transparenz- und Informationspflichten gegenüber Kunden

Ein Kernstück des Entwurfs sind Transparenzvorgaben:

  • Vorab-Information: Banken und E‑Wallet-Anbieter müssen Kunden vorab informieren, wenn KI‑Systeme direkt mit ihnen interagieren (z. B. Chatbot im Mobile‑Banking, KI‑gestützte Hotline).

  • Kennzeichnung von KI‑Inhalten: Von KI erzeugte Inhalte – Texte, Bilder, Audio, Video – sind eindeutig als solche zu kennzeichnen.

  • Hinweis bei biometrischer Verarbeitung: Kunden sind zu informieren, wenn KI für Emotionserkennung oder biometrische Klassifikation (z. B. Gesichtserkennung im Onboarding) eingesetzt wird.


Für Institute bedeutet das: Customer Journeys und Frontends müssen rechtssicher gestaltet, Einwilligungen sauber dokumentiert und Disclosure‑Texte juristisch geprüft werden.


Schutz vulnerabler Kundengruppen

Der Entwurf enthält explizite Verbote für den missbräuchlichen Einsatz von KI:

  • KI darf nicht dazu eingesetzt werden, Verwundbarkeiten bestimmter Kundengruppen (Alter, Behinderung, finanzielle Notlagen) auszunutzen.

  • Insbesondere das gezielte Bewerben risikoreicher Produkte über Mikro‑Targeting an solche Gruppen wird untersagt.


Das geht über klassische Verbraucherschutzregeln hinaus und zwingt Institute, ihre Marketing‑Algorithmen und Personalisierungslogik auf Fairness und „Do‑not‑target“-Segmente hin zu überprüfen.


Beschwerderecht und Human Oversight

Entscheidungen, die ganz oder teilweise auf KI beruhen (z. B. Kreditentscheidung, Limitanpassung, Betrugsflagging), unterliegen künftig:

  • einem Recht auf Beschwerde des Kunden;

  • der Pflicht des Instituts, eine menschliche Überprüfung der Entscheidung zu ermöglichen.


Technisch übersetzt sich das in:

  • Protokollierung, auf welcher Datenbasis und mit welchen Modellen Entscheidungen getroffen wurden,

  • Workflows, die eine Eskalation an qualifizierte Mitarbeiter ermöglichen,

  • Schulung dieser Mitarbeiter, um KI‑gestützte Entscheidungen nachvollziehen und ggf. korrigieren zu können.


Sicherheits- und Risikomanagementanforderungen

Der Entwurf baut auf bestehenden Sicherheitsvorgaben (z. B. Circular 50 zur Online‑Banksicherheit) auf und ergänzt sie um KI‑spezifische Elemente:

  • Modellinventar und Klassifikation nach Risiko

  • Anforderungen an Datenqualität, Trainingsdaten-Governance und Bias‑Kontrollen

  • periodische Tests und Validierung (z. B. Stresstests, Adversarial Testing)

  • klare Verantwortlichkeiten in den Linienfunktionen (IT, Risiko, Compliance, Fachbereich)


Damit verschiebt sich KI aus der „Experimentierzone“ in einen formal regulierten Teil des Risikomanagements, vergleichbar mit internen Ratingmodellen.


Übergangsfristen und Zeitplan

  • 1. März 2026: Inkrafttreten des nationalen KI‑Gesetzes und voraussichtlich des SBV‑Rundschreibens.

  • Bis September 2027: Übergangsfrist für KI‑Systeme, die vor dem 1. März 2026 bereits im Einsatz sind.


Diese Frist ist angesichts typischer Projektlaufzeiten knapp. Institute, die jetzt erst mit Bestandsaufnahme und Gap‑Analyse beginnen, haben kaum Puffer für komplexe Modellmigrationen.


Praktische Auswirkungen für Marktteilnehmer


Beispiel 1: Internationale Universalbank mit Digitalbanking in Vietnam

Eine europäische Bank betreibt in Vietnam eine digitale Retail‑Plattform mit:

  • KI‑Chatbot an der Customer Front

  • KI‑basiertem Kredit‑Scoring

  • automatisierter Betrugserkennung.


Konsequenzen des Entwurfs:

  • Der Chatbot muss klar als KI kenntlich gemacht und in AGB/Privacy Notices verankert werden.

  • Für das Scoring sind Dokumentation, Erklärbarkeit und ein Eskalationspfad zu menschlicher Entscheidung zu etablieren.

  • Trainingsdaten und Feature‑Sets sind auf Diskriminierungsrisiken zu prüfen, insbesondere in Bezug auf vulnerable Gruppen.


Beispiel 2: Globales FinTech mit White‑Label‑Kreditentscheidungs-Engine

Ein FinTech liefert seine KI‑Engine an mehrere vietnamesische Banken.

Neue Anforderungen:

  • Anpassung der Modell‑Dokumentation an die lokalen Transparenz- und Audit‑Anforderungen.

  • Vertragliche Klarstellung von Verantwortlichkeiten (Datenverarbeitung, Incident‑Reporting, Modelländerungen).

  • Aufbau lokaler Support‑Kapazitäten, um Banken bei Beschwerden und Aufsichtsprüfungen zu unterstützen.


Was Unternehmen jetzt konkret tun sollten


1. KI‑Bestandsaufnahme und Vietnam‑Scope definieren

  • Inventarisierung aller KI‑Systeme mit Bezug zu Vietnam (Onshore und aus dem Ausland erbrachte Services).

  • Klassifikation nach Geschäftsfeld, Risiko und Kundenkontakt.


2. Gap‑Analyse gegenüber dem Entwurf

  • Vergleich bestehender Policies (AI Governance, Model Risk Management, IT‑Sicherheit) mit den neuen Anforderungen.

  • Identifikation von Lücken bei Transparenz, Kundenschutz, Human Oversight und Dokumentation.


3. Anpassung von Governance und Prozessen

  • Integration KI‑spezifischer Kontrollen in bestehende Risk‑ und Compliance‑Frameworks.

  • Einrichtung eines formalen Model Lifecycle Managements mit klaren Freigaben und Monitoring.

  • Schulung von Front‑ und Backoffice‑Mitarbeitern zu neuen Rechten der Kunden und internen Verantwortlichkeiten.


4. Technische Umsetzung planen

  • Anpassung von User Interfaces (Kennzeichnung, Hinweise, Opt‑outs, Beschwerdepfade).

  • Aufbau von Logging‑ und Reporting‑Funktionen für KI‑Entscheidungen.

  • Roadmap zur technischen Anpassung oder Ablösung nicht‑konformer Alt‑Modelle bis spätestens 2027.


Strategische Implikationen über Vietnam hinaus

Für global agierende Institute ist der vietnamesische Entwurf ein weiterer Mosaikstein einer fragmentierten KI‑Regulierungslandschaft:

  • Zunehmende Lokalisierung: Generische, global einheitliche KI‑Modelle geraten an Grenzen; Parameter, Datenpipelines und Kontrollmechanismen müssen länderspezifisch justiert werden.

  • Regulatorischer Präzedenzfall: Andere Schwellenländer mit stark wachsendem Digital‑Banking‑Sektor könnten ähnliche sektorale KI‑Rundschreiben erlassen.

  • Wettbewerbsfaktor Compliance: Institute, die früh ein robustes, skalierbares AI‑Compliance‑Framework aufsetzen, können Innovation längerfristig schneller und mit geringerem Rechtsrisiko ausrollen.


Unternehmen sollten den vietnamesischen Entwurf daher nicht nur punktuell umsetzen, sondern als Anlass nutzen, ihr globales KI‑Risikomanagement im Finanzbereich grundlegend zu überprüfen und zu harmonisieren.


Häufig gestellte Fragen (FAQ)


Was regelt das neue sektorale KI-Rundschreiben der State Bank of Vietnam für Banken?

Das Rundschreiben konkretisiert das nationale vietnamesische KI-Gesetz speziell für den Finanzsektor. Es definiert Pflichten zu Transparenz, Kundenschutz, Risikomanagement, Datengovernance und Sicherheitsanforderungen für alle KI-Systeme von Kreditinstituten, Zahlungsdienstleistern und weiteren Finanzakteuren.


Wie wirkt sich das vietnamesische KI-Regelwerk konkret auf Banken und FinTechs aus?

Institute müssen ihre KI-gestützten Prozesse, insbesondere in Kreditvergabe, Betrugserkennung, Kundenservice und eKYC, an die neuen Anforderungen anpassen. Das umfasst klare Kennzeichnung von KI, Beschwerde- und Eskalationspfade zu Menschen, Dokumentation der Modelle sowie Überprüfung von Marketing- und Targeting-Algorithmen auf Missbrauch vulnerabler Gruppen.


Welche Übergangsfristen gelten für bestehende KI-Systeme im vietnamesischen Bankensektor?

Das nationale KI-Gesetz und voraussichtlich das SBV-Rundschreiben treten am 1. März 2026 in Kraft. Für KI-Systeme, die bereits vor diesem Datum im Einsatz sind, gilt eine Übergangsfrist bis September 2027, innerhalb derer sie vollständig konform gemacht oder ersetzt werden müssen.


Was ist der Unterschied zwischen dem nationalen KI-Gesetz Vietnams und dem SBV-Rundschreiben für Banken?

Das nationale KI-Gesetz legt einen allgemeinen, risikobasierten Rahmen für den Einsatz von KI in Vietnam fest. Das SBV-Rundschreiben übersetzt diesen Rahmen in sektorspezifische Pflichten für Finanzakteure und geht mit detaillierten Vorgaben zu Transparenz, Modellrisiko, Kundenschutz und Governance deutlich tiefer ins Fachliche.


Welche speziellen Schutzvorschriften gibt es für vulnerable Kundengruppen?

Der Entwurf verbietet ausdrücklich, KI zur Ausnutzung von Verwundbarkeiten bestimmter Kundengruppen wie ältere Menschen, Personen mit Behinderung oder Kunden in finanzieller Not zu verwenden. Insbesondere Mikro-Targeting mit risikoreichen Produkten an diese Gruppen soll unterbunden werden, wodurch Institute ihre Personalisierungs- und Marketinglogik neu ausrichten müssen.


Was sollten internationale Banken und FinTechs mit Vietnam-Bezug jetzt tun?

Unternehmen sollten kurzfristig ein KI-Inventar mit Vietnam-Bezug erstellen, eine Gap-Analyse gegenüber den neuen Vorgaben durchführen und Governance, Prozesse und Verträge entsprechend anpassen. Parallel dazu sind technische Maßnahmen wie UI-Anpassungen, Logging für KI-Entscheidungen, Eskalations-Workflows und eine Roadmap für die Migration nicht-konformer Modelle bis 2027 aufzusetzen.


Welche strategische Bedeutung hat der vietnamesische KI-Entwurf über den lokalen Markt hinaus?

Der Entwurf signalisiert, dass sich sektorale KI-Regulierung im Finanzbereich global verdichtet und länderspezifische Anforderungen zunehmen. Institute, die jetzt ein skalierbares, international anschlussfähiges AI-Compliance-Framework etablieren, können KI-Innovationen schneller und mit geringeren Rechtsrisiken in mehreren Jurisdiktionen ausrollen.