Proofpoint übernimmt Acuvity: Was die neue Sicherheits- und Governance-Schicht für agentische KI-Workspaces bedeutet
13.02.2026

Proofpoint hat am 12. Februar 2026 den KI-Security-Spezialisten Acuvity übernommen und positioniert sich damit als einer der ersten großen Anbieter, der explizit die Absicherung agentischer KI‑Workspaces adressiert. Der Deal zielt auf Sicherheits- und Governance-Kontrollen für KI‑Agenten, Model-Context-Protocol-Infrastrukturen und lokale KI‑Tools wie Ollama. Für Unternehmen bedeutet das einen Strategiewechsel: Weg von isolierter E‑Mail- oder Cloud-Security, hin zu einer Plattform, die Menschen, Daten und KI‑Agenten gemeinsam betrachtet – mit direkten Auswirkungen auf DLP, Compliance, Identity und das Design zukünftiger KI‑Workflows.
Proofpoint übernimmt Acuvity: Was die neue Sicherheits- und Governance-Schicht für agentische KI-Workspaces bedeutet
Einordnung der Übernahme
Am 12. Februar 2026 hat Proofpoint die Übernahme von Acuvity bekanntgegeben, einem auf Unternehmenssicherheit und Governance für KI spezialisierten Anbieter. Proofpoint positioniert sich damit als erste große Cybersecurity-Plattform, die den „agentic workspace“ – also Umgebungen, in denen Menschen und KI‑Agenten gemeinsam arbeiten – als eigenständige Schutzdimension adressiert.([proofpoint.com](https://www.proofpoint.com/us/newsroom/press-releases/proofpoint-acquires-acuvity-deliver-ai-security-and-governance-across?utm_source=openai))
Anders als klassische E‑Mail-, Endpoint- oder Cloud-Security zielt der Deal auf eine Governance-Schicht, die das Verhalten von KI‑Agenten, ihre Datenzugriffe und Aktionen in Echtzeit überwacht und steuert. Für CISOs und CIOs verschiebt sich damit der Referenzrahmen: Nicht mehr nur menschliche Identitäten, sondern auch AI-Identitäten werden zu Security‑Subjekten erster Klasse.
Was Acuvity technisch einbringt
Neue Kontrollpunkte im agentischen Workspace
Acuvity bringt laut Proofpoint eine Reihe neuer Kontrollpunkte und Detection-Modelle ein, die speziell für KI‑Workloads entwickelt wurden:([proofpoint.com](https://www.proofpoint.com/us/newsroom/press-releases/proofpoint-acquires-acuvity-deliver-ai-security-and-governance-across?utm_source=openai))
Sichtbarkeit über die gesamte AI‑Nutzung hinweg: von Endpoints und Browsern über Model Context Protocol (MCP)‑Server bis hin zu lokal installierten AI‑Tools wie OpenClaw und Ollama.
Runtime-Inspektion und -Enforcement von AI‑Interaktionen – inklusive Protokollierung, Richtliniendurchsetzung und Blockierung riskanter Aktionen in Echtzeit.
Kontext- und intentbasierte Erkennung: Modelle, die nicht nur Tokens oder URLs prüfen, sondern bewerten, warum ein Agent auf bestimmte Daten zugreifen oder eine Aktion ausführen will.
Damit adressiert Proofpoint Risiken, die in klassischen Security-Stacks kaum sichtbar sind:
Shadow AI und unkontrollierter Einsatz von Agenten und Copilots
Exfiltration sensibler Daten und geistigen Eigentums in öffentliche oder Drittanbieter‑Modelle
AI‑spezifische Angriffe wie Prompt Injection, Model Manipulation oder missbräuchliche Tool-Calls durch Agenten([proofpoint.com](https://www.proofpoint.com/us/newsroom/press-releases/proofpoint-acquires-acuvity-deliver-ai-security-and-governance-across?utm_source=openai))
Vereinheitlichung von People‑, Data‑ und AI‑Security
Mit Acuvity will Proofpoint eine Plattform anbieten, die drei bisher oft getrennte Domänen zusammenführt:([proofpoint.com](https://www.proofpoint.com/us/newsroom/press-releases/proofpoint-acquires-acuvity-deliver-ai-security-and-governance-across?utm_source=openai))
Collaboration Security – Schutz von Menschen vor phishingbasierten, social‑engineering‑ und accountbezogenen Bedrohungen.
Data Security & Governance – DLP, Klassifizierung und Richtlinien, wo und wie Daten genutzt werden dürfen.
AI Security – Governance von AI‑Nutzung, Schutz von Modellen und agentischen Workflows.
Gerade für Unternehmen, die bereits Proofpoint für E‑Mail, Collaboration oder DLP einsetzen, entsteht damit eine technische Anschlussfähigkeit: bestehende Policies und Klassifizierungen können auf AI‑Workloads erweitert werden, anstatt parallele AI‑Security‑Silos aufzubauen.
Warum das für Unternehmen jetzt relevant ist
Beschleunigte Einführung agentischer KI
Unternehmen führen aktuell flächendeckend AI‑Copilots, autonome oder halbautonome Agenten und modellverbundene Anwendungen ein – von Entwicklung und IT‑Ops über Kundenservice bis zu Finance und Legal.([proofpoint.com](https://www.proofpoint.com/us/newsroom/press-releases/proofpoint-acquires-acuvity-deliver-ai-security-and-governance-across?utm_source=openai))
Beispiele aus der Praxis:
Customer Service: Agenten, die Tickets nicht nur beantworten, sondern auch Rückerstattungen auslösen oder Kundendaten anpassen.
Softwareentwicklung: Tools, die automatisch Code ändern, Pipelines anstoßen und Infrastruktur konfigurieren.
Finanzbereich: Agenten, die Verträge auswerten, Zahlungen vorbereiten oder Buchungslogiken anpassen.
In allen Fällen greifen Agenten auf produktive Daten und Systeme zu und können wirkmächtige Aktionen ausführen – häufig mit höherer Geschwindigkeit als menschliche Mitarbeitende. Fehlkonfigurationen, schwache Richtlinien oder erfolgreiche Prompt-Injection-Angriffe führen damit direkt zu Compliance‑Verstößen, finanziellen Verlusten oder Betriebsstörungen.
Governance-Lücke zwischen Identität, DLP und KI
Bisherige Security-Architekturen sind primär auf menschliche Identitäten ausgerichtet:
IAM- und PAM‑Konzepte definieren Rollen und Zugriffe für Nutzer und Service Accounts.
DLP‑Strategien schützen Daten in E‑Mail, Cloud‑Speichern oder auf Endpoints.
Für KI‑Agenten ergeben sich jedoch neue Fragen:
Wer „besitzt“ einen Agenten – User, Team, Anwendung oder Fachbereich?
Welche Daten darf ein Agent sehen, zwischenspeichern oder in andere Systeme übertragen?
Wie werden Aktionen eines Agenten auditierbar und revisionssicher dokumentiert?
Die Proofpoint‑/Acuvity‑Kombination adressiert genau diese Governance-Lücke, indem sie Agenten als eigenständige Entitäten mit Richtlinien, Monitoring und Reporting versieht.
Konkrete Implikationen für CISOs und CIOs
1. Agenten als Erstklass-Identitäten behandeln
Organisationen sollten KI‑Agenten nicht länger als „Funktion eines Tools“, sondern als eigene Identitäten mit:
klar definierten Rollen und Verantwortlichkeiten,
minimal erforderlichen Rechten (Least Privilege),
eigenem Lifecycle-Management (Erstellung, Änderung, Deaktivierung),
Logging und Audit-Trails bis auf Aktionen- und Prompt-Ebene
betrachten. Plattformen wie die von Proofpoint/Acuvity können hier eine Brücke zwischen Identity-, DLP- und KI‑Governance schlagen.
2. DLP- und Compliance-Policies auf agentische Workflows ausweiten
Bestehende Richtlinien – z. B. zum Umgang mit personenbezogenen Daten (DSGVO), Geheimhaltungsstufen oder Exportkontrollen – müssen explizit auf KI‑Interaktionen angewendet werden.
Konkrete Schritte:
Datenklassifizierung für alle Quellen, die Agenten nutzen (E‑Mail, SharePoint, M365, CRM, ERP, Wissensbasen).
Richtlinien, wann welche Daten an externe Modelle (Public Cloud, SaaS‑KI) übermittelt werden dürfen.
Enforcement auf Runtime-Ebene: Blockieren oder Umleiten von Anfragen, die Klassifizierungs- oder Compliance-Regeln verletzen.
3. Neue Kontrollen für MCP-Server und lokale KI‑Tools etablieren
Mit dem Aufkommen von Model Context Protocol (MCP)‑Servern und lokalen RAG‑ oder LLM‑Umgebungen (z. B. Ollama) verschiebt sich das Risiko weg von reinen Cloud‑SaaS‑Anwendungen hin zu interner Infrastruktur.([techzine.eu](https://www.techzine.eu/news/security/138769/proofpoint-acquires-ai-security-company-acuvity/?utm_source=openai))
Empfehlungen:
MCP‑Server als kritische Infrastruktur einstufen und in Netzwerksegmentierung, Monitoring und Härtung einbeziehen.
Einheitliche Richtlinien, welche internen und externen Tools Agenten über MCP ansprechen dürfen.
Sichtbarkeit darüber schaffen, welche Abteilungen eigene lokale Modelle oder Agenten-Frameworks aufsetzen (Shadow AI reduzieren).
4. Betriebs- und Organisationsmodelle überdenken
Mit einer Plattform, die Menschen, Daten und Agenten gemeinsam adressiert, wird das Rollenmodell in der Security-Organisation komplexer:
Security Operations benötigen Playbooks für AI‑spezifische Vorfälle (z. B. Prompt Injection, Policy‑Umgehung durch Agenten).
Risk & Compliance müssen Kontrollziele für autonome Entscheidungen von Agenten formulieren.
Fachbereiche (z. B. HR, Finance, Legal) brauchen Leitplanken, welche Aufgaben an Agenten delegiert werden dürfen – und welche nicht.
Proofpoints Positionierung als „agentic workspace“-Plattform sendet ein klares Signal: Unternehmen werden sich langfristig nicht leisten können, AI‑Security isoliert auf Tool‑ oder Projektbasis zu denken.
Fazit: Von punktueller KI-Nutzung zur Plattform-Governance
Die Übernahme von Acuvity durch Proofpoint markiert einen Wendepunkt: Agentische KI wird nicht mehr als Add‑on bestehender Kollaborations- oder Cloud‑Umgebungen betrachtet, sondern als eigener Governance‑Layer mit spezifischen Risiken und Kontrollanforderungen.
Für Security‑Verantwortliche bedeutet das kurzfristig mehr Komplexität, mittelfristig aber die Chance, eine konsistente, plattformweite Steuerung von Menschen, Daten und KI‑Agenten aufzubauen. Wer heute beginnt, AI‑Agenten als vollwertige Akteure im Sicherheits- und Compliance‑Modell zu verankern, wird künftige regulatorische Anforderungen und technologische Entwicklungen deutlich souveräner adressieren können.
Häufig gestellte Fragen (FAQ)
Was ist mit der Übernahme von Acuvity durch Proofpoint gemeint?
Proofpoint hat am 12. Februar 2026 den KI-Security-Anbieter Acuvity übernommen, um eine spezielle Sicherheits- und Governance-Schicht für agentische KI-Workspaces aufzubauen. Im Fokus steht nicht mehr nur der Schutz von E-Mail oder Cloud, sondern die durchgängige Kontrolle von KI-Agenten, ihren Datenzugriffen und Aktionen in Unternehmensumgebungen.
Was versteht man unter einem agentischen KI-Workspace?
Ein agentischer KI-Workspace ist eine Arbeitsumgebung, in der Menschen und KI-Agenten gemeinsam Aufgaben ausführen, etwa in Entwicklung, Customer Service oder Finance. Dort greifen Agenten eigenständig auf produktive Daten und Systeme zu, lösen Aktionen aus und treffen (teil-)autonome Entscheidungen, die entsprechend überwacht und gesteuert werden müssen.
Wie verbessert die Kombination aus Proofpoint und Acuvity die Sicherheit von KI-Agenten?
Die gemeinsame Plattform bringt neue Kontrollpunkte ein, die KI-Nutzung vom Endpoint über Browser und MCP-Server bis hin zu lokalen KI-Tools sichtbar machen. Durch Runtime-Inspektion, kontextbasierte Erkennung und Richtliniendurchsetzung können riskante Aktionen von Agenten in Echtzeit erkannt, protokolliert und bei Bedarf blockiert werden.
Welche Auswirkungen hat die Übernahme auf DLP, Compliance und Identity-Management?
Proofpoint kann bestehende DLP-, Klassifizierungs- und Compliance-Policies direkt auf KI-Workloads ausweiten, anstatt isolierte AI-Security-Silos zu schaffen. Gleichzeitig werden KI-Agenten als eigene Identitäten mit Rollen, Rechten, Lifecycle-Management und Audit-Trails behandelt, was Governance- und Compliance-Anforderungen besser abdeckt.
Was ist der Unterschied zwischen klassischer E-Mail-/Cloud-Security und der neuen Governance-Schicht für KI?
Klassische Security-Lösungen konzentrieren sich vor allem auf menschliche Nutzer, Endgeräte oder bestimmte Applikationen wie E-Mail und Cloud-Speicher. Die neue Governance-Schicht adressiert hingegen speziell das Verhalten von KI-Agenten, ihre Intentionen, Tool-Calls und Datenflüsse über verschiedene Systeme hinweg und erlaubt eine feinere, kontextbezogene Steuerung.
Welche Risiken adressiert Proofpoint mit Acuvity im Zusammenhang mit agentischer KI?
Die Lösung soll insbesondere Shadow AI, unkontrollierte Agenten-Nutzung und Datenabflüsse in externe Modelle sichtbar machen und eindämmen. Zudem werden KI-spezifische Angriffe wie Prompt Injection, Model Manipulation oder missbräuchliche Tool-Aufrufe durch Agenten erkannt und mit Richtlinien und technischen Kontrollen abgewehrt.
Was sollten Unternehmen jetzt konkret tun, um sich auf agentische KI-Workspaces vorzubereiten?
Unternehmen sollten KI-Agenten als eigenständige Identitäten in ihrem Sicherheits- und Compliance-Modell verankern, inklusive Rollen, Rechten und Audit-Trails. Parallel dazu gilt es, bestehende DLP- und Compliance-Policies explizit auf KI-Interaktionen auszuweiten, MCP-Server und lokale KI-Tools als kritische Infrastruktur zu behandeln und organisatorische Verantwortlichkeiten für AI-Security klar zu definieren.