Singapur setzt Benchmark: Was der neue Governance-Rahmen für agentische KI für Unternehmen weltweit bedeutet
23.01.2026

Singapur hat am 22. Januar 2026 auf dem WEF in Davos den weltweit ersten spezifischen Model AI Governance Framework for Agentic AI vorgestellt. Der Rahmen adressiert erstmals systematisch Risiken und Governance-Bedarf autonom handelnder KI-Agenten – von Delegationsgrenzen über Logging-Pflichten bis zu menschlicher Aufsicht. Der Beitrag analysiert, was der Rahmen konkret vorsieht, welche Auswirkungen sich für internationale Unternehmen ergeben und wie CIOs, CDOs und Compliance-Verantwortliche ihre Agenten‑Architekturen jetzt ausrichten sollten.
Singapur setzt Benchmark: Was der neue Governance-Rahmen für agentische KI für Unternehmen weltweit bedeutet
Singapur hat am 22. Januar 2026 auf dem Weltwirtschaftsforum in Davos den Model AI Governance Framework for Agentic AI vorgestellt – nach eigenen Angaben der erste umfassende Governance-Rahmen speziell für agentische KI weltweit. Damit wird ein bisher rechtlich kaum geregelter Bereich adressiert: autonome, auf großen Modellen basierende Agenten, die eigenständig Aktionen ausführen und Entscheidungen vorbereiten oder treffen.
Für Unternehmen ist dieser Schritt strategisch relevant, auch wenn sie keinen Sitz in Singapur haben. Der Rahmen ist als Modell konzipiert und dürfte internationale Standardsetzungsprozesse ebenso beeinflussen wie interne Governance-Programme global agierender Konzerne.
1. Kontext: Was Singapur genau beschlossen hat
1.1 Ausgangslage: Von traditioneller zu agentischer KI
Bereits 2020 hatte Singapur ein Model AI Governance Framework für klassische KI veröffentlicht und 2024 einen ergänzenden Rahmen für generative KI in die öffentliche Konsultation gegeben. Der nun veröffentlichte MGF for Agentic AI baut explizit auf diesen Vorarbeiten auf und adressiert ein neues Risikoprofil: Systeme, die nicht nur Inhalte generieren oder Scores berechnen, sondern selbstständig Aktionen über Tools und Schnittstellen ausführen.
Dazu zählen insbesondere:
Einkaufs‑ und Beschaffungsagenten, die Angebote einholen, Bestellungen auslösen und Budgets verwalten
Kundenservice‑Agenten, die Tickets klassifizieren, Rückerstattungen anstoßen oder Kontodaten aktualisieren
DevOps‑ und IT‑Ops‑Agenten, die Deployments durchführen, Konfigurationen ändern oder Zugriffsrechte anpassen
Wissens‑ und Office‑Agenten, die Kalendereinträge setzen, Dateien verschieben oder E‑Mails verschicken
Gegenüber rein generativen Systemen besteht der qualitative Unterschied darin, dass diese Agenten direkt in operative Systeme eingreifen und damit unmittelbar geschäftsrelevante oder rechtlich bedeutsame Effekte auslösen können.
1.2 Kernelemente des neuen Frameworks
Der MGF for Agentic AI ist kein Gesetz, sondern ein regulatorischer Orientierungsrahmen mit konkreten Best Practices. Er adressiert im Kern vier Dimensionen:
Risikobewertung und Begrenzung der Agentenbefugnisse
– Auswahl geeigneter Use Cases
– Begrenzung von Autonomiegrad, Tool‑Zugriff und Datenzugriff
Menschliche Verantwortlichkeit und Kontrollpunkte
– Definition signifikanter Checkpoints, an denen menschliche Freigabe zwingend ist
– klare Zuweisung organisatorischer Verantwortung
Technische und prozessuale Kontrollen über den Lebenszyklus
– Baseline‑Tests, Monitoring, Whitelisting von Diensten, Logging, Incident Handling
Endnutzer‑Transparenz und ‑Verantwortung
– Kennzeichnung agentischer Funktionen
– Schulung und Sensibilisierung für verbleibende Risiken
Der Rahmen richtet sich sowohl an Unternehmen, die eigene agentische Systeme entwickeln, als auch an solche, die Third‑Party‑Agentenlösungen einsetzen.
2. Detaillierte Analyse: Was ist wirklich neu – und warum ist das wichtig?
2.1 Von Prinzipien zu konkreten Architekturvorgaben
Bisherige KI‑Rahmenwerke (auch die EU‑KI‑Verordnung) adressieren Autonomie und Risikomanagement eher abstrakt. Singapur geht nun einen Schritt weiter, indem konkrete Architekturprinzipien für Agenten‑Systeme formuliert werden, unter anderem:
Agenten sollen nur Zugang zu den Tools erhalten, die für den konkreten Use Case zwingend erforderlich sind (Minimalitätsprinzip).
Kritische Aktionen (z. B. Zahlungen, irreversible Datenlöschungen) müssen über explizite menschliche Checkpoints abgesichert werden.
Agenten sollen nur gegen whitelists geprüfte Dienste und APIs ansteuern dürfen.
Es ist ein durchgängiges Logging der Agentenentscheidungen und ‑aktionen vorzusehen, das eine forensische Rekonstruktion ermöglicht.
Für Unternehmen bedeutet das: Es reicht nicht mehr, lediglich „Responsible AI Principles“ zu veröffentlichen. Systemarchitektur und Betriebsprozesse müssen nachweisbar den Governance‑Vorgaben folgen.
2.2 Neue Risikokategorien durch Agentik
Der Rahmen beschreibt spezifische Risikotypen, die über bekannte KI‑Risiken hinausgehen:
Umweltmanipulation: Agenten können operative Systeme (ERP, CRM, Produktionssteuerung) verändern und damit physische oder finanzielle Folgen auslösen.
Kaskadierende Fehler: Ein fehlerhafter Agenten‑Schritt (z. B. falscher Termin, falscher Preis) kann automatisiert weitere Aktionen anstoßen.
Automation Bias: Mitarbeitende neigen dazu, zuverlässige Agenten mit der Zeit zu übervertrauen und Kontrollen zu lockern.
Delegationsdiffusion: Unklare Verantwortlichkeit, wenn viele Teams Agenten konfigurieren oder nutzen, aber niemand die Gesamtverantwortung trägt.
Neu ist, dass diese Risiken in Governance‑Anforderungen übersetzt werden: etwa Pflicht zur klaren Zuweisung einer accountable Person pro Agenten‑System, oder die explizite Festlegung, welche Aktionen niemals ohne menschliche Freigabe erfolgen dürfen.
2.3 Globale Signalwirkung – insbesondere im Vergleich zur EU
Obwohl der Rahmen rechtlich nicht bindend ist, hat er drei Signalwirkungen:
Frühe Spezifizierung für Agentik: Während viele Jurisdiktionen noch unscharf zwischen generativer und agentischer KI unterscheiden, etabliert Singapur Agentik als eigene Governance‑Kategorie.
Komplement zu Hard‑Law‑Regimen: Unternehmen, die sich bereits auf die EU‑KI‑Verordnung vorbereiten, erhalten mit dem MGF for Agentic AI ein praktikables Ergänzungsinstrument, um die dortigen Pflichten (Risikomanagement, Human Oversight, Logging) in Agenten‑Architekturen zu operationalisieren.
De‑facto‑Standard durch Marktmacht: Singapur ist ein zentraler Standort für Finanz‑, Logistik‑ und Technologiekonzerne in Asien. Die dort entwickelten Standards haben oft Faktische Strahlkraft auf regionale und globale Policies.
Für global agierende Unternehmen entsteht damit ein Orientierungspunkt, an dem sich interne Policies und Product‑Governance‑Modelle ausrichten lassen – auch im Vorgriff auf mögliche ähnliche Vorgaben anderer Staaten.
3. Konkrete Anforderungen im Detail
3.1 Delegation und Autonomie: Wie weit darf der Agent gehen?
Der Rahmen empfiehlt, bereits in der Use‑Case‑Definition folgende Punkte festzulegen:
Delegationsumfang: Welche Entscheidungen darf der Agent allein treffen, welche nur vorbereiten?
Autonomiegrad: Darf der Agent eigenständig Folgeaufgaben planen (z. B. mehrstufige Tool‑Aufrufe) oder ist er auf Einzelschritte begrenzt?
Finanzielle und rechtliche Schwellenwerte: Bis zu welcher Betragshöhe oder Risikoart ist vollautomatisches Handeln zulässig?
Praxisimplikation: Unternehmen sollten einen „Delegation Catalogue“ je Agenten führen, der diese Grenzen dokumentiert und versioniert.
3.2 Kontinuierliche Überwachung statt einmaliger Freigabe
Singapur betont den Lebenszyklusansatz: Agenten müssen nicht nur vor Inbetriebnahme, sondern laufend überwacht werden. Dazu gehören:
Baseline‑Tests vor Produktivsetzung (z. B. auf Datenleckage, ungewollte Tool‑Aufrufe, Halluzinationen mit operativer Relevanz)
Laufendes Monitoring von Verhalten (z. B. Anomalieerkennung bei ungewöhnlichen Aktionen, Volumen, Zeitpunkten)
Incident‑Response‑Prozesse speziell für Agenten (z. B. temporäre Deaktivierung, Rücknahme von Aktionen, Benachrichtigung von Stakeholdern)
Damit verschiebt sich der Schwerpunkt von einmaliger „Model Approval“ hin zu Operational Governance – ein Ansatz, den Unternehmen aus dem Informationssicherheits‑ oder Cloud‑Kontext kennen, der nun aber auf Agenten übertragen wird.
3.3 Haftung, Accountability und Logging
Zentrales Prinzip des Rahmens: Menschen und Organisationen bleiben verantwortlich, auch wenn Agenten autonom handeln. Daraus folgen praxisnahe Anforderungen:
Pro Agenten‑System ist eine verantwortliche Rolle (z. B. Product Owner / System Owner) zu benennen.
Es müssen Audit‑fähige Logs vorliegen, die nachzeichnen, welche Eingaben der Agent erhalten, welche Zwischenschritte er durchgeführt und welche Aktionen er ausgelöst hat.
Für kritische Domänen (z. B. Gesundheit, Finanztransaktionen, personenbezogene Daten) sind verschärfte Nachweispflichten empfehlenswert.
Unternehmen, die heute bereits LLM‑basierte Assistenten einsetzen, haben häufig nur Prompt‑ und Antwortlogs. Für Agenten werden jedoch Tool‑ und Aktionslogs notwendig, oft mit System‑übergreifender Korrelation.
4. Praxisnahe Beispiele und Szenarien
4.1 Einkauf & Beschaffung (Procurement‑Agent)
Ein globaler Industriekonzern nutzt einen Agenten, der auf Basis von Stücklisten automatisch Angebote verschiedener Lieferanten einholt, vergleicht und Bestellungen auslöst.
Governance‑Implikationen nach Singapurs Rahmen:
Delegationsgrenzen: Agent darf Bestellungen nur bis zu einem bestimmten Betrag und nur bei vorab freigegebenen Lieferanten auslösen.
Checkpoints: Ab einem Schwellenwert oder bei neuen Lieferanten ist eine menschliche Freigabe nötig.
Tool‑Access: Zugriff nur auf das Bestellsystem und definierte Lieferantenportale, kein Zugang zu Zahlungsfreigaben.
Logging: Dokumentation der Entscheidungslogik (z. B. Preis‑Leistungs‑Abwägung) und aller Bestellauslösungen.
4.2 Kundenservice‑Agent mit Kontozugriff
Ein Finanzdienstleister setzt einen Agenten ein, der Kundenanfragen beantwortet, Adressdaten aktualisiert und einfache Rückerstattungen vornehmen kann.
Konkrete Anforderungen:
Risikobegrenzung: Agent darf Rückerstattungen nur unterhalb einer Schwelle und nur bei klaren, regelbasierten Fällen (z. B. doppelte Abbuchung) automatisch ausführen.
Menschliche Intervention: Unklare Fälle oder ungewöhnlich hohe Beträge werden verpflichtend an einen Mitarbeitenden eskaliert.
Kontrollmechanismen: Alle Kontoänderungen werden in einem dedizierten Agenten‑Log festgehalten und stichprobenartig geprüft.
4.3 DevOps‑Agent in der IT‑Infrastruktur
Ein Technologieunternehmen betreibt einen DevOps‑Agenten, der Entwicklungs‑Pipelines überwacht, Tests anstößt und kleinere Konfigurationsänderungen durchführt.
Gemäß dem Rahmen sollten:
Whitelist‑basierte Aktionen definiert sein (z. B. Rollback eines Deployments, Neustart eines Dienstes, aber keine Änderung von Identity‑ und Access‑Management‑Policies).
„Kill Switches“ existieren, mit denen der Agent bei Anomalien sofort deaktiviert werden kann.
Kombinierte Logs (CI/CD, Change Management, Agenten‑Log) eine vollständige Change‑Historie gewährleisten.
Diese Beispiele zeigen: Der Rahmen ist nicht abstrakt, sondern lässt sich relativ direkt in Policies, Rollenmodelle und Architekturentscheidungen übersetzen.
5. Geschäftliche Relevanz: Was Unternehmen jetzt tun sollten
5.1 Bestandsaufnahme agentischer Funktionen
Viele Organisationen setzen bereits Tools mit agentischen Komponenten ein – oft ohne sie als solche zu bezeichnen. Ein erster Schritt ist daher eine systematische Inventur:
Welche Systeme können eigenständig Aktionen in produktiven Umgebungen auslösen?
Welche LLM‑basierten Assistenten haben Tool‑ oder API‑Zugriff (z. B. auf Ticket‑Systeme, Datenbanken, E‑Mail‑Gateways)?
Wo existieren geplante oder laufende Projekte für Multi‑Agent‑Workflows?
Diese Inventur sollte nicht nur den IT‑Bereich, sondern auch Fachbereiche (Einkauf, HR, Finance, Customer Service) umfassen.
5.2 Ableitung eines unternehmensweiten Agentic‑AI‑Policies
Auf Basis des Singapur‑Rahmens empfiehlt sich die Erarbeitung einer Agentic‑AI‑Policy, die u. a. regelt:
Zulässige und unzulässige Agenten‑Use‑Cases
Mindestanforderungen an Autonomiebegrenzung, Logging und Monitoring
Rollen und Verantwortlichkeiten (z. B. Agent Owner, Risk Owner, Technical Owner)
Standardisierte Checkpoint‑Kategorien (z. B. finanzielle Schwellenwerte, rechtliche Risiken, irreversible Aktionen)
Diese Policy kann als globale Baseline dienen, die anschließend an lokale rechtliche Anforderungen (z. B. EU‑, US‑, APAC‑Vorgaben) angepasst wird.
5.3 Anpassung von Architektur‑ und Security‑Blueprints
Agentische KI muss in bestehende Enterprise‑Architektur‑ und Sicherheitsrichtlinien integriert werden. Dazu gehört:
Vorgabe von Standard‑Integrationsmustern (z. B. Agenten kommunizieren ausschließlich über einen kontrollierten Orchestrierungs‑Layer mit Backend‑Systemen).
Ergänzung der Identity‑ und Access‑Management‑Richtlinien um Agentenidentitäten, inklusive rollenbasierter Rechtevergabe und technischer Trennung von menschlichen und agentischen Accounts.
Implementierung oder Erweiterung von SIEM‑/Monitoring‑Lösungen, um Agentenaktivität zu korrelieren und Anomalien automatisiert zu erkennen.
5.4 Verzahnung mit Compliance, Datenschutz und Audit
Da agentische Systeme in der Regel auf sensible Daten zugreifen und geschäftskritische Aktionen ausführen, ist eine enge Zusammenarbeit mit Legal, Datenschutz und Internal Audit notwendig:
Aufnahme agentischer KI in das Unternehmens‑Risikoregister
Abstimmung mit Datenschutzbeauftragten zu Zweckbindung, Datenminimierung und Auftragsverarbeitung bei Third‑Party‑Agenten
Entwicklung von Audit‑Programmen, die Agenten‑Logs, Delegationsgrenzen und Checkpoints regulär überprüfen
Unternehmen, die frühzeitig einen solchen Governance‑Ansatz implementieren, werden regulatorische Entwicklungen in verschiedenen Jurisdiktionen besser antizipieren und nachweisen können, dass sie Sorgfaltspflichten erfüllen.
6. Fazit und Takeaways für Entscheider
Singapur nutzt seine Rolle als digitaler Vorreiter, um mit dem Model AI Governance Framework for Agentic AI einen präzisen Referenzrahmen für den Umgang mit autonomen KI‑Agenten zu etablieren. Für international agierende Unternehmen ist dieses Dokument mehr als eine nationale Initiative – es ist ein Blaupause‑Dokument, an dem sich interne Standards und künftige regulatorische Entwicklungen ausrichten dürften.
Zentrale Handlungsempfehlungen auf einen Blick
Agentenlandschaft kartieren: Erfassen Sie alle Systeme, die eigenständig Aktionen ausführen oder Tool‑Zugriffe besitzen – auch in Fachbereichen.
Delegationsgrenzen definieren: Legen Sie pro Agent fest, welche Entscheidungen und Aktionen vollautomatisch erfolgen dürfen und wo zwingend menschliche Checkpoints erforderlich sind.
Technische Guardrails etablieren: Implementieren Sie Whitelisting, rollenbasierten Tool‑Zugriff, umfassendes Logging und „Kill Switches“ für Agenten.
Rollen und Verantwortlichkeiten klären: Benennen Sie accountable Owner für jedes Agenten‑System und integrieren Sie Agentik in Risk, Compliance, Datenschutz und Audit.
Policy an Singapur‑Rahmen ausrichten: Nutzen Sie den Model AI Governance Framework for Agentic AI als Referenz, um eine unternehmensweite Agentic‑AI‑Policy zu definieren.
Auf Skalierung vorbereiten: Gestalten Sie Governance und Architektur so, dass nicht nur Einzel‑Agenten, sondern auch komplexe Multi‑Agent‑Systeme beherrschbar bleiben.
Häufig gestellte Fragen (FAQ)
Was ist der Model AI Governance Framework for Agentic AI aus Singapur?
Der Model AI Governance Framework for Agentic AI ist ein von Singapur veröffentlichter Orientierungsrahmen für den verantwortungsvollen Einsatz autonomer KI‑Agenten. Er definiert Best Practices zu Delegationsgrenzen, menschlicher Aufsicht, Logging, Monitoring und Transparenz, ist aber selbst kein Gesetz.
Wie unterscheidet sich agentische KI von klassischer oder generativer KI?
Agentische KI geht über reine Inhaltserzeugung oder Scoring hinaus und kann eigenständig Aktionen über Tools und Schnittstellen in operative Systeme ausführen. Dadurch entstehen unmittelbare geschäftliche, rechtliche und teilweise physische Auswirkungen, etwa durch Bestellungen, Kontoänderungen oder Systemkonfigurationen.
Welche praktischen Anforderungen stellt der Singapur‑Rahmen an Unternehmen mit KI‑Agenten?
Unternehmen sollen Delegationsumfang und Autonomiegrad jedes Agenten klar festlegen, menschliche Checkpoints für kritische Aktionen definieren und Whitelists für erlaubte Tools und APIs nutzen. Zudem fordert der Rahmen durchgängiges Logging, laufendes Monitoring sowie klare Verantwortlichkeiten (Agent Owner, Risk Owner) über den gesamten Lebenszyklus.
Welche Auswirkungen hat Singapurs Agentic‑AI‑Rahmen für internationale Unternehmen außerhalb Singapurs?
Obwohl der Rahmen rechtlich nicht bindend ist, fungiert er als globaler Referenzpunkt für Governance‑Standards zu agentischer KI. Internationale Unternehmen können ihn nutzen, um bestehende Programme (z. B. zur EU‑KI‑Verordnung) zu konkretisieren und sich frühzeitig auf ähnliche Vorgaben in anderen Jurisdiktionen vorzubereiten.
Wie ergänzt der Singapur‑Rahmen andere Regulierungen wie die EU‑KI‑Verordnung?
Die EU‑KI‑Verordnung definiert Pflichten auf Ebene von Risikomanagement, Human Oversight und Dokumentation, bleibt aber oft abstrakt in Bezug auf Agenten‑Architekturen. Der Singapur‑Rahmen übersetzt diese Pflichten in konkrete technische und organisatorische Patterns, etwa Whitelisting, Kill Switches, Agenten‑Identitäten und spezialisierte Incident‑Response‑Prozesse.
Welche ersten Schritte sollten Unternehmen jetzt für die Governance agentischer KI unternehmen?
Zunächst sollten Unternehmen eine Inventur aller Systeme durchführen, die eigenständig Aktionen ausführen oder Tool‑Zugriffe haben, auch in Fachbereichen. Darauf aufbauend empfiehlt sich eine unternehmensweite Agentic‑AI‑Policy sowie die Anpassung von Architektur‑Blueprints, IAM‑Richtlinien, Monitoring und Audit‑Programmen an die im Rahmen beschriebenen Best Practices.
Wie können CIOs, CDOs und Compliance‑Verantwortliche agentische KI sicher in ihre Organisation integrieren?
Führungskräfte sollten klare Delegationskataloge für Agenten einführen, Finanz‑ und Risikoschwellen definieren und verpflichtende menschliche Freigaben für sensible Aktionen festlegen. Gleichzeitig müssen sie Governance‑Strukturen aufbauen, in denen Risk, Compliance, Datenschutz und Internal Audit systematisch in Design, Betrieb und Überprüfung von Agenten‑Systemen eingebunden sind.