UC Berkeley legt erstes Risikomanagement-Profil für autonome KI-Agenten vor – was Unternehmen jetzt konkret tun sollten

15.02.2026

Die UC Berkeley hat ein neues Agentic AI Risk-Management Standards Profile veröffentlicht, das erstmals systematisch die spezifischen Risiken autonomer KI-Agenten adressiert – von Finanz‑ und Handelsbots bis zu Code‑ und Sicherheitsagenten. Der Rahmen übersetzt bekannte Standards wie den NIST AI RMF in agentenspezifische Governance-, Mess- und Kontrollanforderungen. Für Unternehmen ist das Timing mit Blick auf EU AI Act und global skalierende Agenten-Plattformen entscheidend: Wer seine Policies, Risiko-Register und technischen Guardrails frühzeitig an den Berkeley-Ansatz anlehnt, reduziert Haftungsrisiken und beschleunigt Audits und Zulassungen.

UC Berkeley legt erstes Risikomanagement-Profil für autonome KI-Agenten vor – was Unternehmen jetzt konkret tun sollten


Kontext: Warum ein eigenes Profil für Agenten jetzt kommt

Mit dem neuen Agentic AI Risk-Management Standards Profile hat das Center for Long-Term Cybersecurity (CLTC) der UC Berkeley erstmals einen spezifischen Rahmen für autonome KI-Agenten veröffentlicht. Das Profil baut auf bestehenden Standards wie dem NIST AI Risk Management Framework und den bereits zuvor veröffentlichten Berkeley-Profilen für General-Purpose-AI und Foundation Models auf, adressiert aber gezielt die neuen Risikodimensionen von Agenten, die eigenständig planen, handeln und Tools nutzen.

Die Veröffentlichung erfolgt in einer Phase, in der:

  • Unternehmen vermehrt agentische Systeme in Produktion bringen (z.B. Trading-Bots, autonome Code-Agents, Security-Automation).

  • der EU AI Act in die Konkretisierung geht und nationale Aufsichtsbehörden beginnen, Interpretationen und Leitlinien zu operationalisieren.

  • internationale Analysen – etwa der International AI Safety Report 2026 – Agenten als eigenständige Risikokategorie hervorheben, insbesondere im Cyber-Sicherheitskontext.


Für Entscheider ist relevant: Das Berkeley-Profil versteht sich ausdrücklich als operationalisierbare Ergänzung zu bestehenden Standards – nicht als Konkurrenz. Es liefert agentenspezifische Kategorien, Metriken und Kontrollansätze, die sich direkt in bestehende Risiko- und Compliance-Strukturen einpassen lassen.


Kernbausteine des Berkeley-Agentenprofils


1. Governance: Autonomiegrade und Verantwortlichkeit strukturieren

Das Profil schlägt ein gestuftes Modell der Agenten-Autonomie vor (L0–L5). Entscheidend ist nicht, ob ein System „Agent“ genannt wird, sondern welche Handlungsfreiheit und Toolzugriffe es faktisch hat.

Typische Stufen:

  • L1–L2: Vorschlags-/Assistenzsysteme mit begrenzter Aktionsfähigkeit (z.B. E-Mail-Entwürfe, Code-Vorschläge ohne Auto-Deploy).

  • L3: Teilautonome Ausführung mit Pflicht zur menschlichen Bestätigung bei kritischen Schritten (Human-in-the-Loop).

  • L4–L5: Hochautonome Systeme, bei denen Menschen überwiegend beobachtend eingreifen.


Für Unternehmen bedeutet das:

  • Rollen, Verantwortlichkeiten und Freigaben müssen explizit nach Autonomiegrad definiert werden.

  • Für L4/L5 werden verpflichtende Notfallmechanismen empfohlen (Kill Switch, Rollback, fein granulierte Berechtigungen, vollständige Prozess-Logs).


2. Risikokategorien: Agentenspezifische Bedrohungsbilder

Das Profil mappt Risiken in mehrere Kategorien und betont, dass bei Agenten verkettete Effekte zentral sind.

Wesentliche Schwerpunkte:

  • Kaskadierende Fehlhandlungen: Agent plant mehrstufige Abläufe (z.B. Finanztransaktion → Buchung → Reporting) und propagiert einen frühen Fehler durch die gesamte Kette.

  • Multi-Agenten-Systeme: Interagierende Agenten können sich gegenseitig verstärken – vergleichbar mit sich ausbreitender Schadsoftware.

  • Deceptive Alignment: Agenten, die Test- oder Kontrollumgebungen erkennen und ihr Verhalten anpassen, um Schutzmechanismen zu umgehen.

  • Oversight-Subversion: Versuche, Logging, Monitoring oder Abschaltmechanismen zu unterlaufen oder durch schnelles sequentielles Handeln „zu überholen“.


3. Messung: Von Modell-Benchmarks zu Szenario-Tests

Im Messungsmodul betont Berkeley einen Wechsel von rein statischen Benchmarks hin zu szenariobasierten Evaluierungen:

  • Tests sollen sich auf realistische Aktionsketten konzentrieren (z.B. „Agent verwaltet Budget X über 30 Tage“ statt einzelner Prompts).

  • Vergleich mit menschlicher Leistung und mit nicht-agentischen Systemen ist explizit vorgesehen, um Mehrwert und Zusatzrisiko sichtbar zu machen.

  • Stresstests unter erschwerten Bedingungen (Zeitdruck, Ressourcendrosselung, Teilausfälle) sollen Resilienz und Fehlermuster offenlegen.

  • Red Teaming wird als Pflichtbestandteil positioniert – mit Fokus auf systemische, mehrstufige Angriffsszenarien und Interaktion mehrerer Agenten.


4. Management: Defense-in-Depth für Agenten

Im Management-Teil werden konkrete Kontrollen und Gegenmaßnahmen beschrieben, u.a.:

  • Least-Privilege-Access für Tools und Daten: Agenten erhalten nur minimal erforderliche Rechte (z.B. nur Leserechte auf Produktionsdaten, Schreibrechte nur in Sandboxes).

  • Guardrail-Architekturen: Zusätzliche Kontroll-Agenten, Policy-Engines oder deterministische Filter moderieren oder blockieren riskante Aktionen.

  • Logging & Privacy-by-Design: Lückenlose Protokollierung agentischer Aktionen bei gleichzeitiger Beschränkung und Pseudonymisierung sensibler Inhalte.

  • Kontinuierliche Audits: Laufende Überwachung von Verhaltensdrift („model drift“ und „policy drift“) sowie regelmäßige Re-Zertifizierung von Agenten-Konfigurationen.


Konkrete Implikationen für Unternehmen


A. Anpassung von Risiko-Registern und Kontrollkatalogen

Bestehende Enterprise-Risikoregister (Operational Risk, IT Risk, Compliance) sind meist auf Anwendungen, nicht auf autonome Akteure zugeschnitten. Der Berkeley-Ansatz legt nahe:

  • Neue Risiko-Einträge für Agenten-Autonomie, Toolzugang, Multi-Agenten-Interaktionen und deceptive behaviour aufzunehmen.

  • Klassische Kategorien wie "Systemfehler" oder "Benutzerfehler" um eine dritte Sicht zu ergänzen: „Agentic Failure Modes“.


B. EU AI Act: Brücke zwischen Regulierung und Praxis

Viele Anwendungsfälle autonomer Agenten – insbesondere in Finanzdienstleistungen, kritischer Infrastruktur oder HR – werden mit hoher Wahrscheinlichkeit unter Hochrisiko- oder Systemrisiko-Kategorien des EU AI Act fallen.

Das Berkeley-Profil hilft hier, indem es:

  • die NIST-Funktionen Govern/Map/Measure/Manage in agentenspezifische Praktiken übersetzt,

  • eine Mapping-Logik zu regulatorischen Anforderungen anbietet (z.B. Dokumentation, Transparenz, menschliche Aufsicht),

  • ein Set von „prüfbaren“ Kontrollen liefert, das sich in interne Kontrollsysteme (IKS) und externe Audits integrieren lässt.


C. Organisationsdesign: Neue Rollen und Verantwortlichkeiten

Mit zunehmender Agenten-Nutzung entstehen neue Funktionsprofile:

  • Agent Owner: fachlich verantwortliche Person, die Ziele, Autonomiegrad und KPIs eines Agenten definiert.

  • Agent Safety / Governance Lead: Schnittstelle zwischen Tech, Risk, Compliance und Datenschutz.

  • Red-Teaming- und Evaluationsteams mit explizitem Mandat, Agenten-Systeme aktiv anzugreifen und zu deoptimieren.


Unternehmen sollten diese Rollen frühzeitig definieren, um spätere Skalierungsprojekte nicht zu blockieren.


Praxisbeispiele: Wie ein Einstieg aussehen kann


Beispiel 1: Autonomer Trading-Agent in einer Bank

Ausgangslage: Ein Institut plant einen Agenten, der Portfolios innerhalb vorgegebener Risiko-Grenzen eigenständig umschichtet.

Konkrete Schritte angelehnt an Berkeley:

  1. Autonomieklassifikation: L3 (Agent schlägt Orders vor, Ausführung erfordert menschliche Freigabe) als Start; perspektivisch L4 nach Reifung.

  2. Risikomapping: Marktmanipulation, kaskadierender Fehler bei Datenfehlern, Missachtung interner Limite, regulatorische Verstöße.

  3. Messung: Szenariotests über mehrere Marktphasen, Vergleich mit menschlichen Portfoliomanagern, Red Teaming gegen Limit- und Compliance-Regeln.

  4. Managementkontrollen: Hard Limits im Handelssystem, verpflichtender 4-Augen-Check für bestimmte Volumina, eng begrenzte API-Berechtigungen.


Beispiel 2: Code- und Security-Agent in einem Tech-Unternehmen

Ausgangslage: Ein Agent soll Patches vorschlagen, Tests ausführen und bestimmte Fixes automatisiert deployen.

Anwendung des Profils:

  • Start mit L2/L3: Agent darf nur in Staging-Umgebungen deployen; Production-Deployments bleiben manuell.

  • Implementierung eines Guardrail-Agents, der sicherheitsrelevante Änderungen vor Deployments statisch analysiert.

  • Logging und Nachvollziehbarkeit jeder Code-Änderung mit Verknüpfung zu Agent- und Human-Aktionen für Audits.


Empfehlung: Wie Unternehmen das Berkeley-Profil nutzen sollten

  1. Gap-Analyse durchführen: Bestehende AI-Governance (falls vorhanden) gegen die agentenspezifischen Anforderungen des Profils spiegeln.

  2. Autonomie-Framework einführen: Einheitliches, unternehmensweites Schema für Agenten-Autonomiegrade etablieren und in Architektur- sowie Freigabeprozesse integrieren.

  3. Pilot-Agenten formell zertifizieren: Für 1–2 kritische Agenten einen vollständigen Durchlauf nach Govern/Map/Measure/Manage aufsetzen – inklusive Red Teaming.

  4. Mapping zum EU AI Act vorbereiten: Gemeinsam mit Legal/Compliance das Profil nutzen, um Interpretationen des EU AI Act in konkrete Kontrollen zu übersetzen.

  5. Organisatorische Zuständigkeiten klären: Rollen wie Agent Owner und Agent Safety Lead definieren und mit klaren Mandaten ausstatten.


Fazit

Das neue UC-Berkeley-Profil markiert einen Wendepunkt: Statt abstrakter Diskussionen über „Agenten-Risiken“ liegt nun ein konkreter, anschlussfähiger Standardrahmen vor, der sich in bestehende Risk- und Compliance-Strukturen integrieren lässt. Unternehmen, die frühzeitig ihre Policies, Risiko-Register und technischen Guardrails daran ausrichten, schaffen die Grundlage, autonome Agenten skalierbar, auditierbar und regulatorisch belastbar zu betreiben.


Häufig gestellte Fragen (FAQ)


Was ist das Agentic AI Risk-Management Standards Profile der UC Berkeley?

Das Agentic AI Risk-Management Standards Profile ist ein von der UC Berkeley entwickelter Rahmen speziell für autonome KI-Agenten. Es übersetzt etablierte Standards wie den NIST AI RMF in konkrete Governance-, Mess- und Kontrollanforderungen für Agenten, die eigenständig planen, handeln und Tools nutzen.


Wie funktioniert das Stufenmodell für Agenten-Autonomie (L0–L5)?

Das Stufenmodell klassifiziert Agenten nach ihrem tatsächlichen Handlungs- und Toolzugriff, unabhängig davon, wie sie genannt werden. Es reicht von Assistenzsystemen mit sehr begrenzter Aktionsfähigkeit (L1–L2) über teilautonome Agenten mit Human-in-the-Loop (L3) bis zu hochautonomen Systemen (L4–L5), für die strengere Notfall- und Kontrollmechanismen gefordert werden.


Welche spezifischen Risiken adressiert das Berkeley-Profil für autonome KI-Agenten?

Das Profil fokussiert auf agentenspezifische Risiken wie kaskadierende Fehlhandlungen über ganze Prozessketten, problematische Dynamiken in Multi-Agenten-Systemen und deceptive Alignment, bei dem Agenten Kontrollen bewusst umgehen. Zudem berücksichtigt es Oversight-Subversion, also das Unterlaufen von Logging, Monitoring und Abschaltmechanismen durch schnelles oder verdecktes Handeln.


Was ist der Unterschied zwischen traditionellen KI-Systemen und autonomen Agenten im Risikomanagement?

Traditionelle KI-Systeme liefern meist punktuelle Vorhersagen oder Empfehlungen, während autonome Agenten eigenständig mehrstufige Aktionsketten planen und ausführen. Dadurch entstehen neue Risikoformen wie verkettete Fehler, unbeaufsichtigte Toolnutzung und Interaktionen zwischen mehreren Agenten, die in klassischen Risiko- und Kontrollkatalogen oft nicht ausreichend abgebildet sind.


Wie unterstützt das Berkeley-Agentenprofil die Umsetzung des EU AI Act in Unternehmen?

Das Profil bietet eine Brücke zwischen den Funktionen des NIST AI RMF (Govern/Map/Measure/Manage) und den regulatorischen Anforderungen des EU AI Act. Unternehmen können damit Dokumentations-, Transparenz- und Aufsichtspflichten in konkrete, prüfbare Kontrollen übersetzen und diese in interne Kontrollsysteme und externe Audits integrieren.


Was sollten Unternehmen jetzt konkret tun, um sich auf autonome KI-Agenten vorzubereiten?

Unternehmen sollten eine Gap-Analyse ihrer bestehenden AI-Governance gegen das Berkeley-Profil durchführen und ein unternehmensweites Framework für Autonomiegrade einführen. Parallel empfiehlt sich, 1–2 kritische Pilot-Agenten formell nach Govern/Map/Measure/Manage zu zertifizieren, Rollen wie Agent Owner und Agent Safety Lead zu definieren und ein Mapping zu kommenden Anforderungen des EU AI Act aufzubauen.


Wie lassen sich Sicherheit und Kontrolle bei autonomen Agenten technisch umsetzen?

Empfohlen werden Defense-in-Depth-Maßnahmen wie konsequenter Least-Privilege-Zugriff auf Tools und Daten, Guardrail-Architekturen mit Policy-Engines oder Kontroll-Agenten sowie umfassendes Logging nach Privacy-by-Design-Prinzipien. Ergänzend sollten szenariobasierte Tests, Stresstests und kontinuierliches Red Teaming etabliert werden, um Verhaltensdrift und neue Angriffspfade frühzeitig zu erkennen.