Singapur setzt mit dem ersten Governance-Rahmen für agentische KI einen globalen Referenzpunkt
02.02.2026
Singapur hat als erstes Land einen spezifischen Governance-Rahmen für agentische KI vorgestellt. Der Model AI Governance Framework for Agentic AI definiert Anforderungen an Transparenz, menschliche Verantwortlichkeit und technische Kontrollmechanismen für autonome KI-Agenten. Für international tätige Unternehmen ist dies ein früher Indikator, wie Regulierer künftig mit Shopping‑, Service- oder Workflow-Agenten umgehen werden – und eine Blaupause, um eigene Agentic‑AI‑Architekturen, Policies und Verträge regulatoriefest auszulegen.
Singapur setzt mit dem ersten Governance-Rahmen für agentische KI einen globalen Referenzpunkt
Einordnung: Warum dieser Schritt über Singapur hinaus relevant ist
Singapur hat am 22. Januar 2026 am Rande des Weltwirtschaftsforums in Davos den Model AI Governance Framework for Agentic AI vorgestellt – den weltweit ersten spezifischen Governance-Rahmen, der sich explizit auf agentische KI bezieht, also auf KI‑Agenten, die eigenständig planen, Entscheidungen treffen und Aktionen ausführen können. Am 1./2. Februar 2026 wurde der Rahmen in der Region offiziell weiter ausgerollt und durch Initiativen mit Technologie‑ und Sicherheitspartnern flankiert.
Für Unternehmen ist das nicht nur eine lokale asiatische Regulierungsmeldung, sondern ein Frühindikator für globale Regulierungstrends. Nachdem Singapur bereits 2019 einen Modellrahmen für „klassische“ KI und 2024 einen Governance-Rahmen für Generative KI veröffentlicht hat, gilt das Land als Taktgeber für praxisnahe, industrienahe KI-Regulierung. Der neue Rahmen für agentische KI ist deshalb mit hoher Wahrscheinlichkeit ein Blaupausen-Dokument, an dem sich andere Regulierer – einschließlich in der EU, im Vereinigten Königreich und in Asien – orientieren werden.
Kontext: Was ist neu am Governance-Rahmen für agentische KI?
Von KI-Modellen zu handelnden Agenten
Während bisherige Governance-Rahmen vor allem Modelle adressierten – Prognosemodelle, Klassifikatoren oder generative Modelle – richtet sich der neue Rahmen direkt auf Agenten, die
eigene Ziele verfolgen (bzw. aus Nutzerzielen ableiten),
mehrstufige Pläne erstellen (Planung),
Tools und APIs ansteuern (z. B. Zahlungs- oder Bestell-APIs, Ticketsysteme, DevOps‑Pipelines),
in Schleifen agieren (Plan → Ausführen → Beobachten → Reflexion → nächster Schritt).
Damit verschiebt sich der Fokus der Regulierung von „Was generiert das Modell?“ hin zu „Was tut das System tatsächlich in der realen Welt – und wer kontrolliert es?“.
Einbettung in Singapurs bestehende KI-Governance-Landschaft
Der neue Rahmen knüpft an mehrere bereits etablierte Bausteine an:
Model AI Governance Framework (2019/2020): Grundprinzipien verantwortlicher KI (Transparenz, Fairness, Mensch im Mittelpunkt).
Proposed Model AI Governance Framework for Generative AI (MGF‑Gen AI, 2024): Konkretisierung für generative Modelle, vorgestellt ebenfalls in Davos.
AI Verify: Ein technisches Test- und Bewertungsframework, das es Unternehmen ermöglicht, KI-Systeme gegen Governance-Anforderungen zu testen.
AI-Assurance- und Safety-Initiativen (2025): Pilotprogramme für technische Tests, Red-Teaming und Assurance‑Dienste rund um GenAI.
Mit dem agentischen Rahmen schließt Singapur nun eine Lücke: Der Fokus liegt nicht mehr nur auf Trainingsdaten, Modellen und Outputs, sondern auf der laufenden Steuerung und Überwachung autonomer Aktionen.
Kernelemente des Governance-Rahmens für agentische KI
1. Menschliche Verantwortlichkeit und „Meaningful Human Accountability“
Der Rahmen stellt klar: KI-Agenten können handeln, aber Menschen bleiben verantwortlich. Das umfasst mehrere Ebenen:
Zurechenbarkeit: Für jeden Agenten muss klar definiert sein, welche Rolle (Unternehmen, Abteilung, verantwortliche Person) rechtlich und organisatorisch die Verantwortung trägt.
Entscheidungspunkte: Für risikoreiche Aktionen sind explizite Human-in-the-Loop-Checkpoints vorgesehen, an denen ein Mensch Entscheidungen freigibt, ablehnt oder eskaliert.
Delegationsgrenzen: Der Rahmen betont, dass hochkritische Entscheidungen (z. B. gesundheitsrelevante Diagnosen mit unmittelbaren Konsequenzen, Kreditverweigerungen mit großer Tragweite) nicht vollständig an Agenten delegiert werden sollten.
2. Begrenzung und „Risk Bounding“ von Agenten-Autonomie
Ein zentrales neues Konzept ist das „Risk Bounding“:
Autonomieumfang klar definieren: Unternehmen sollen sorgfältig festlegen, welche Daten, Systeme und Transaktionsarten ein Agent ansteuern darf – und was explizit ausgeschlossen ist.
Blast Radius begrenzen: Selbst bei Fehlverhalten oder Kompromittierung des Agenten muss der mögliche Schaden technisch begrenzt sein (z. B. Betragslimits, Scope-Limits für APIs, nur Testumgebung, keine produktiven Systeme ohne Freigabe).
Kontextuelle Begrenzung: Zugriff nur in bestimmten Kontexten (z. B. nur für bestimmte Kundensegmente, nur innerhalb geregelter Geschäftszeiten, nur mit aktiver Session des Mitarbeitenden).
Damit verschiebt sich Governance weg von rein prozessualen Policies hin zu konkreten Design- und Architekturvorgaben.
3. Technische Kontrollmechanismen („Circuit Breakers“ und Runtime-Governance)
Besonders hervorzuheben sind die Anforderungen an laufende technische Kontrollen:
Circuit Breakers: Systeme müssen in der Lage sein, Agentenaktivitäten sofort zu stoppen, wenn definierte Schwellenwerte, Anomalien oder Policy-Verstöße erkannt werden.
Runtime-Monitoring: Unternehmen sollen Telemetrie über Agentenaktionen erfassen (z. B. auf welche Tools wurde zugegriffen, welche Transaktionen wurden ausgelöst, welche Entscheidungen wurden abgelehnt oder eskaliert).
Sandboxing und schrittweiser Rollout: Vor produktivem Einsatz sind Agenten in isolierten Testumgebungen zu prüfen; der Übergang in den Realbetrieb soll phasenweise und mit begrenztem Scope erfolgen.
Diese Mechanismen ähneln Ideen aus der aktuellen Forschung zu Runtime-Governance für Agenten (z. B. agentische Telemetrie, Zustandsmaschinen, kontextabhängige Autorisierung), werden aber erstmals in einem staatlichen Governance-Rahmen ausdrücklich eingefordert.
4. Transparenz und Nutzeraufklärung
Der Rahmen verlangt, dass Nutzer:
klar informiert werden, wenn sie mit einem Agenten interagieren – statt mit einem menschlichen Mitarbeitenden oder einem rein statischen System,
Verständnis über Fähigkeiten und Grenzen des Agenten erhalten (z. B. welche Entscheidungen eigenständig getroffen werden, in welchen Fällen Übergabe an Menschen erfolgt),
geeignete Eskalationswege kennen, wenn Ergebnisse des Agenten infrage gestellt werden.
Für B2C‑Szenarien (z. B. Shopping‑ oder Service‑Agenten) bedeutet das: Kennzeichnungspflicht und UI/UX-Anpassungen, etwa durch klare Labels, erklärende Onboarding-Screens und Feedbackmechanismen.
5. Protokollierung, Nachvollziehbarkeit und Audit-Fähigkeit
Für Compliance‑, Haftungs‑ und Forensik-Zwecke erwartet der Rahmen:
vollständige Protokollierung wesentlicher Agentenaktionen,
Verknüpfung mit Identitäten (welcher Nutzer, welche Rolle, welcher Agenten‑„Build“),
prüfbare Entscheidungsrationale, soweit technisch möglich (z. B. Chain-of-Thought-ähnliche Strukturen in abstrahierter Form, Policy-Hits, abgelehnte Alternativen),
Aufbewahrungs- und Zugriffskonzepte für Audit- und Aufsichtsbehörden.
Damit verschiebt sich Governance von rein papierbasierten Richtlinien hin zu datengetriebener, auditierbarer Agentik.
Konkrete Einsatzszenarien: Was der Rahmen praktisch bedeutet
Beispiel 1: Shopping-Agent im E-Commerce
Ein internationaler Händler setzt einen Shopping-Agenten ein, der:
Kundenwünsche entgegennimmt („Finde mir ein Business-Outfit unter 300 €“),
selbstständig Produktvergleiche durchführt,
Rabattregeln anwendet,
Warenkörbe befüllt und Bestellungen auslöst.
Implikationen des Singapur-Rahmens:
Autonomiebegrenzung: Der Agent darf z. B. nur Bestellungen bis zu einem bestimmten Warenwert auslösen oder nur bei ausgewählten Produktkategorien eigenständig handeln.
Circuit Breaker: Häufen sich ungewöhnliche Bestellmuster (z. B. massenhafte Bestellungen mit identischen Adressen oder Zahlungsarten), wird der Agent automatisch gestoppt und ein Fraud-Team informiert.
Transparenz: Der Kunde sieht eindeutig, dass ein KI-Agent Empfehlungen ausspricht bzw. Bestellungen vorbereitet – und kann den Prozess abbrechen oder einen Menschen anfordern.
Protokollierung: Jede vom Agenten ausgelöste oder vorbereitete Transaktion wird mit Kontext (Prompts, Zwischenschritte, ermittelte Optionen) protokolliert.
Beispiel 2: Service-Agent im Customer Support
Ein Telekommunikationsanbieter betreibt einen Service-Agenten, der Tickets klassifiziert, Lösungsschritte vorschlägt, Tarifänderungen vornimmt und Gutschriften vergeben kann.
Governance-Konsequenzen:
Risikobasierte Checkpoints: Tarifwechsel bis zu einem geringen Betrag können automatisch ausgeführt werden; hohe Gutschriften über einem Schwellwert benötigen menschliche Freigabe.
Trainings- und Onboardingpflichten: Servicemitarbeitende müssen verstehen, was der Agent kann, wie er Entscheidungen trifft und wie sie bei Fehlverhalten einschreiten.
Auditfähige Abläufe: Bei Beschwerden (z. B. „Der Bot hat mir den Tarif ohne Zustimmung geändert“) muss der Anbieter den genauen Entscheidungsverlauf nachvollziehen können.
Beispiel 3: Interne Workflow-Agenten in der IT- und Prozessautomatisierung
Ein Industrieunternehmen setzt agentische KI ein, um interne Workflows zu automatisieren:
Erstellen von Change-Tickets,
Ausführen definierter DevOps‑Pipelines,
Priorisieren von Incidents,
Vorschlagen von Patches und Konfigurationen.
Relevante Rahmenaspekte:
Strikte Systemgrenzen: Der Agent hat z. B. nur Leserechte auf Produktivsystemen, Schreibrechte ausschließlich in Staging-Umgebungen und benötigt menschliche Freigabe für Deployments.
Mehrstufige Circuit Breaker: Anomalien bei Konfigurationsänderungen führen zunächst zur Degradierung der Agentenrechte (z. B. nur noch Vorschläge, keine Aktionen), erst bei weiteren Abweichungen zum vollständigen Stopp.
Integration in bestehende GRC- und SIEM-Systeme: Agentenaktivitäten erscheinen als eigene Quelle in Logging‑ und Monitoring-Landschaften.
Implikationen für global tätige Unternehmen
1. Singapur als Regulierungs‑Pilotmarkt für Asien
Für Unternehmen mit Präsenz in Singapur oder Plänen, agentische KI in der Region auszurollen, wird der Stadtstaat zum Pilotmarkt für regulatoriekonforme Agentik. Wer hier frühzeitig compliant arbeitet, kann:
Rollout-Risiken in ASEAN-Staaten verringern, die sich voraussichtlich an Singapur orientieren,
gegenüber Aufsichtsbehörden in anderen Jurisdiktionen (z. B. EU) demonstrieren, dass bereits ein hohes Governance-Niveau implementiert ist,
intern einheitliche Standards statt fragmentierter regionaler Lösungen etablieren.
2. Wechselwirkung mit EU AI Act und anderen Regulierungen
Der EU AI Act adressiert bislang primär Systeme und ihre Risikokategorien, weniger explizit die agentische Dimension. Es ist aber absehbar, dass Aufsichtsbehörden:
Anforderungen an Transparenz, Protokollierung, Risikominderung und Human Oversight analog auf agentische KI anwenden werden,
sich bei Konkretisierungen von Leitlinien und technischen Standards an praktischen Referenzrahmen wie dem aus Singapur orientieren,
Agenten, die in Hochrisiko-Kontexte eingebunden sind (z. B. Kreditvergabe, Beschäftigung, Gesundheitsversorgung), besonders kritisch prüfen.
Unternehmen können daher den Singapur-Rahmen als Erprobungsfeld nutzen, um eigene Agenten-Ökosysteme auf kommende Konkretisierungen in der EU und anderen Regionen vorzubereiten.
3. Verschiebung von „Policy on Paper“ zu „Policy in Code“
Die expliziten Vorgaben zu Circuit Breakers, Telemetrie und Runtime-Governance bedeuten: Governance wird technisch. Organisationen müssen:
Policies in durchsetzbare Regeln und Kontrollen übersetzen (z. B. through Policy-Engines, Access-Control-Systeme, Guardrails),
sicherstellen, dass Agentenplattformen mit vorhandenen GRC‑, IAM‑ und Security‑Stacks integriert sind,
Kompetenzlücken zwischen Fachbereichen, Legal, Compliance und Engineering schließen.
Was Unternehmen jetzt konkret tun sollten
1. Agentic-AI-Landscape im Unternehmen erfassen
Viele Unternehmen experimentieren bereits mit Agenten – oft ohne formale Erfassung. Erste Schritte:
Inventur: Welche agentischen Use Cases gibt es (Pilot, PoC, Schatten‑IT, Experimente von Teams)?
Kategorisierung nach Risiko: Kundenkontakt, finanzielle Auswirkungen, Produktionsnähe, personenbezogene Daten, regulatorische Domänen.
Abgleich mit Singapur-Rahmen: Wo bestehen bereits Kontrollen (z. B. Checkpoints, Protokollierung), wo sind Lücken offensichtlich?
2. Architekturprinzipien für agentische KI definieren
Auf Basis des Rahmens sollten zentrale Architektur-Guidelines formuliert werden, etwa:
Standardvorgaben für Autonomie-Scope und Limits,
verpflichtende Circuit-Breaker-Patterns (z. B. Timeouts, Budget-Limits, Safe Defaults),
Anforderungen an Logging, Telemetrie und Auditability,
Nutzung definierter sicherer Tool- und API-Gateways statt direkter Systemzugriffe.
Diese Prinzipien sollten technologieagnostisch formuliert sein, um sowohl Eigenentwicklungen als auch SaaS‑Lösungen zu umfassen.
3. Governance- und Haftungsstrukturen anpassen
Recht und Compliance müssen prüfen:
wie Verantwortlichkeiten für Agentenrollen in Organisationshandbüchern und RACI-Matrizen verankert werden,
ob bestehende Haftungsregelungen, Versicherungen und Verträge (z. B. mit Dienstleistern, Plattformpartnern) agentenspezifische Risiken ausreichend adressieren,
wie Dokumentationspflichten für Aufsichtsbehörden erfüllt werden können (z. B. durch standardisierte Agenten-Steckbriefe und technische Dossiers).
4. Pilotprojekte nach Singapur-Standard neu ausrichten
Unternehmen mit laufenden oder geplanten Agentic‑AI‑Piloten sollten diese gezielt an den neuen Rahmen anlehnen:
mindestens einen Pilot pro Domäne (Commerce, Customer Service, interne Automatisierung) definieren,
die im Rahmen beschriebenen Kontrollmechanismen (Autonomiebegrenzung, Circuit Breaker, transparente Nutzerkommunikation) umsetzen,
die Ergebnisse für interne und externe Stakeholder (Management, Aufsichtsräte, Regulierer) dokumentieren.
So lassen sich „Best Practices“ entwickeln, die später unternehmensweit ausgerollt werden können.
5. Kompetenzen und Rollen rund um agentische KI aufbauen
Schließlich erfordert der Rahmen auch personelle Anpassungen:
Aufbau von interdisziplinären Teams (Engineering, Security, Data, Legal, Compliance, Fachbereiche),
Schulungen für Produkt- und Projektteams zu Agentic-Design, Runtime-Governance und Risikomanagement,
mögliche Einrichtung neuer Rollen (z. B. „Agentic AI Owner“, „AI Governance Engineer“), die technische und regulatorische Anforderungen zusammenbringen.
Fazit: Singapurs Rahmen als Blaupause für eine neue Phase der KI-Governance
Mit dem Model AI Governance Framework for Agentic AI markiert Singapur den Übergang von der Regulierung einzelner Modelle zu einer Governance für handelnde, autonome KI-Systeme. Für Unternehmen ist dies eine Chance, die eigene Agentenstrategie frühzeitig regulatoriefest, sicher und skalierbar zu gestalten – statt später unter Zeitdruck nachzurüsten.
Kernpunkte für Entscheider:
Agentische KI wird von Regulierern nicht mehr als reines Experiment, sondern als eigenständige Risikokategorie betrachtet.
Singapur liefert eine konkrete, umsetzungsorientierte Referenz, an der sich andere Jurisdiktionen wahrscheinlich orientieren werden.
Governance verschiebt sich in Richtung technischer Kontrollmechanismen (Circuit Breaker, Telemetrie, Runtime-Governance), die in Architektur und Betrieb verankert werden müssen.
Unternehmen mit frühen Agentic‑AI‑Piloten können den Rahmen nutzen, um Architekturen, Policies und Verträge proaktiv auszurichten – insbesondere für Commerce, Customer Service und interne Automatisierung.
Wer jetzt in Strukturen, Kompetenzen und technische Guardrails investiert, reduziert nicht nur Compliance-Risiken, sondern schafft auch die Grundlage für vertrauenswürdige, skalierbare Agenten-Ökosysteme.
Häufig gestellte Fragen (FAQ)
Was ist der Model AI Governance Framework for Agentic AI aus Singapur?
Der Model AI Governance Framework for Agentic AI ist der erste spezialisierte Governance-Rahmen für agentische KI, also KI-Agenten, die eigenständig planen, entscheiden und handeln. Er definiert Anforderungen an Transparenz, menschliche Verantwortlichkeit, technische Kontrollmechanismen und Protokollierung, um den sicheren Einsatz solcher Agenten in der Praxis zu ermöglichen.
Wie unterscheidet sich der Governance-Rahmen für agentische KI von bisherigen KI-Regulierungen?
Bisherige Rahmen bezogen sich vor allem auf Modelle und deren Outputs, etwa Prognosen oder generierte Inhalte. Der neue Rahmen fokussiert dagegen auf konkrete Aktionen von KI-Agenten in realen Systemen und verlangt klare Delegationsgrenzen, Runtime-Governance, Circuit Breaker und detaillierte Protokollierung der Agentenaktivitäten.
Welche Auswirkungen hat der Singapur-Rahmen auf international tätige Unternehmen?
Für global agierende Unternehmen fungiert Singapur als Pilotmarkt, an dem sie regulatoriekonforme Agentik in Commerce, Service und interner Automatisierung erproben können. Wer seine Agentenarchitekturen früh an diesen Rahmen anpasst, reduziert künftige Compliance-Risiken und kann gegenüber EU- oder UK-Aufsichtsbehörden ein hohes Governance-Niveau nachweisen.
Wie funktioniert „Risk Bounding“ bei agentischer KI in der Praxis?
Beim Risk Bounding legen Unternehmen den zulässigen Autonomieumfang eines Agenten präzise fest, etwa welche Daten, Systeme und Transaktionen er nutzen darf. Zusätzlich werden der potenzielle Schaden technisch begrenzt, etwa durch Betragslimits, API-Scope-Beschränkungen, kontextabhängige Zugriffsregeln und verpflichtende menschliche Checkpoints für risikoreiche Aktionen.
Was ist der Unterschied zwischen klassischen KI-Systemen und agentischer KI im Sinne des Rahmens?
Klassische KI-Systeme liefern meist Vorhersagen oder Empfehlungen, die ein Mensch anschließend auswertet und in Handlungen übersetzt. Agentische KI hingegen verfolgt eigene Ziele, plant mehrstufige Aktionen und führt sie über Tools und APIs selbstständig aus, weshalb der Rahmen strengere Anforderungen an technische Kontrollen, Telemetrie und menschliche Verantwortlichkeit stellt.
Was sollten Unternehmen jetzt tun, um sich auf den Governance-Rahmen für agentische KI vorzubereiten?
Unternehmen sollten zunächst eine Inventur bestehender und geplanter Agentic-AI-Use-Cases durchführen und diese nach Risiko klassifizieren. Darauf aufbauend sind Architekturprinzipien (Autonomielimits, Circuit-Breaker-Patterns, Logging), Governance- und Haftungsstrukturen sowie Pilotprojekte nach Singapur-Standard aufzusetzen und durch Schulungen sowie neue Rollen wie „Agentic AI Owner“ abzusichern.
Wann ist der Governance-Rahmen für agentische KI relevant, wenn ein Unternehmen (noch) nicht in Singapur tätig ist?
Auch ohne Präsenz in Singapur ist der Rahmen relevant, weil er als Blaupause für andere Regulierungsräume wie EU und UK dient. Unternehmen, die ihre Agentenlandschaft bereits heute an diesen Standard anlehnen, können zukünftige Anpassungen an lokale Vorgaben deutlich schneller und mit weniger Umbaukosten umsetzen.
