Pentagon vs. Anthropic: Was der Claude-Gov-Konflikt für KI-Lieferketten und Governance bedeutet

27.02.2026

Das Pentagon droht Anthropic faktisch mit einem Ausschluss aus der militärischen Lieferkette, sollte das Unternehmen seine Einsatzgrenzen für die Claude-Gov-KI nicht aufgeben. Im Kern geht es um die Frage, ob KI-Anbieter rote Linien gegen Massenüberwachung und vollautonome Waffensysteme vertraglich festschreiben dürfen – oder ob sicherheitskritische Auftraggeber vollständige Nutzungshoheit verlangen können. Der Konflikt setzt einen Präzedenzrahmen für CIOs, Rechts- und Compliance-Teams, die KI in sicherheitsrelevanten Umgebungen bereitstellen oder einkaufen.

Pentagon vs. Anthropic: Was der Claude-Gov-Konflikt für KI-Lieferketten und Governance bedeutet


Ausgangslage: Ultimatum an Anthropic wegen Claude-Gov

Seit dem 26./27. Februar 2026 eskaliert ein Konflikt zwischen dem US-Verteidigungsministerium und Anthropic, dem Entwickler der Claude-KI und der speziell gehärteten Variante Claude Gov. Das Pentagon verlangt, Claude in geheimen und militärischen Netzwerken für „alle rechtmäßigen Zwecke“ einsetzen zu dürfen – ausdrücklich ohne die bisherigen Nutzungsgrenzen gegen:

  • massenhafte Überwachung von US-Bürger:innen

  • vollautonome Waffensysteme ohne menschliche Kontrolle


Anthropic-CEO Dario Amodei hat diese Forderung öffentlich zurückgewiesen und erklärt, man könne „nicht guten Gewissens“ zustimmen. Das Ministerium reagiert mit harten Drohkulissen:

  • Androhung der Einstufung als „Lieferketten-Risiko“ (supply chain risk)

  • mögliche Kündigung eines 200-Millionen-Dollar-Vertrags

  • Verweis auf den Defense Production Act (DPA) von 1950, um Zugang zu erzwingen


Faktisch steht damit ein Bann aus großen Teilen der US-Militär-Lieferkette im Raum.


Was an diesem Fall wirklich neu ist


1. Governance-Fragen schlagen direkt in Lieferkettenrisiken um

Bisher wurden KI-Governance-Debatten vor allem als Regulierungsthema geführt (EU AI Act, NIS2, nationale KI-Strategien). Der Anthropic-Fall zeigt:

> Einsatzgrenzen (Use-Case-Policies) sind nicht mehr nur interne Compliance-Regeln, sondern können zu harten Ausschlusskriterien in militärischen und sicherheitskritischen Lieferketten werden.

Für Unternehmen bedeutet das:

  • Ethik- und Risikoauflagen von Anbietern können mit Sicherheitsanforderungen von staatlichen Kunden kollidieren.

  • Die Folge sind Exit-Risiken: Verlust ganzer Marktsegmente, wenn sich keine Kompromisse finden lassen.


2. Frontier-AI als kritische Infrastruktur

Claude Gov ist aktuell eines der wenigen Frontier-Modelle, die in klassifizierten US-Netzwerken produktiv laufen. Der Konflikt markiert damit de facto die Einstufung solcher Modelle als kritische digitale Infrastruktur mit:

  • strategischer Bedeutung für militärische Entscheidungsprozesse

  • entsprechenden Erwartungen an Verfügbarkeit, Steuerbarkeit und Hoheit der Auftraggeber


Damit rücken KI-Modelle in eine ähnliche Kategorie wie Kryptografie, Satellitenaufklärung oder strategische Halbleiter.


3. Nutzungshoheit vs. Anbieter-Ethik

Neu ist die Härte, mit der ein sicherheitskritischer Auftraggeber beansprucht, Nutzungshoheit ohne inhaltliche Einschränkung zu haben – solange der Einsatz rechtlich zulässig ist.

Auf der anderen Seite definiert Anthropic rote Linien, die über das Rechtliche hinausgehen:

  • kein Beitrag zu Massenüberwachung in den USA

  • keine Unterstützung vollständig autonomer Waffen


Damit wird ein Konflikt sichtbar, der auch europäische Unternehmen treffen kann:

> Wer entscheidet über die „rote Linie“ bei KI-Einsätzen – Gesetzgeber, Auftraggeber oder Anbieter?


Implikationen für Unternehmen und Organisationen


1. Vertragsgestaltung: Use-Case-Schranken strategisch kalibrieren

CIOs, CDOs und Rechtsabteilungen müssen bei KI-Beschaffungen und -Lieferverträgen neu denken:

  • Zu strenge Use-Case-Verbote können dazu führen, dass man als Anbieter oder Integrator in sicherheitskritischen Umfeldern nicht mehr zugelassen wird.

  • Zu weiche oder fehlende Schranken bergen erhebliche Reputations-, Rechts- und Ethikrisiken – insbesondere bei später umstrittenen Einsätzen (z. B. Zielauswahl, Grenzsicherung, Überwachung).


Konkrete Ansatzpunkte:

  • Mehrstufige Einsatzkategorien in Verträgen (z. B. „zugelassen“, „nur mit starker menschlicher Kontrolle“, „ausgeschlossen“).

  • Klar definierte Ausnahmeprozesse (z. B. temporäre Erweiterung für bestimmte Operationen, mit Protokollierung und nachgelagerter Auditierung).

  • Transparente Kündigungs- und Exit-Klauseln, falls Auftraggeber oder Anbieter ihre Governance-Grundsätze ändern.


2. Lieferketten- und Resilienzplanung

Wenn ein zentraler KI-Anbieter wie Anthropic von einem Großkunden oder einer Regierung als Lieferkettenrisiko eingestuft werden kann, entstehen neue Hausaufgaben im Third-Party-Risk-Management:

  • Abhängigkeiten kartieren: Welche kritischen Prozesse hängen an einzelnen Frontier-Modellen (z. B. Claude, GPT-Modelle, Gemini, Grok)?

  • Substitutionsfähigkeit prüfen: Gibt es realistische Alternativen mit vergleichbarer Qualität, Latenz, Compliance?

  • Exit- und Fallback-Szenarien planen: Technisch (API-Abstraktionsschicht, Modell-Agnostik), organisatorisch (Migrationspläne) und rechtlich (Datenportabilität, IP-Rechte).


Für Systemintegratoren und Defense-IT-Anbieter heißt das: Architekturentscheidungen sollten Multi-Model-Fähigkeit und Lieferantenwechsel ausdrücklich vorsehen.


3. Governance-Alignment als Ausschreibungskriterium

Ausschreibende Behörden und große Unternehmen werden in Zukunft genauer prüfen:

  • Passen die Governance-Prinzipien des Anbieters zu unserer Risikokultur?

  • Wie stabil sind diese Prinzipien unter Druck? (Stresstest durch Szenarien ähnlich zum Pentagon-Ultimatum)


Umgekehrt sollten Anbieter klar kommunizieren:

  • Welche roten Linien gelten unverrückbar (z. B. Massenüberwachung, Social Scoring, bestimmte Waffensysteme)?

  • Wo bestehen Verhandlungsspielräume (z. B. Einsatz in militärischer Aufklärung mit menschlicher Abnahme)?


Ein fehlendes Governance-Matching kann – wie im aktuellen Fall – zu abrupten Brüchen in strategischen Partnerschaften führen.


Praxisnahe Szenarien für Entscheidungsträger


Szenario 1: Europäischer Rüstungselektronik-Hersteller

Ein Rüstungselektronik-Hersteller integriert für ein NATO-Programm ein US-Frontier-Modell in seine Führungs- und Informationssysteme. Die Regierung des Beschaffungslandes verlangt in einer Krise, bestimmte autonome Zielvorschlagsfunktionen zu aktivieren, die ursprünglich ausgeschlossen waren.

Fragen an CIO/CTO und Legal:

  • Sind diese Funktionalitäten vertraglich untersagt oder nur technisch deaktiviert?

  • Welche Haftungsrisiken entstehen bei Re-Enablement auf Weisung eines Staates?

  • Gibt es vertraglich vorgesehene Entscheidungswege, die Ethik-Boards oder Aufsichtsgremien einbinden?


Szenario 2: Zivile Sicherheitsbehörde in der EU

Eine nationale Sicherheitsbehörde setzt ein Frontier-Modell für Gefahrenanalysen ein. Sie möchte das System nun auch für breite Mustererkennung in Kommunikationsdaten nutzen. Der KI-Anbieter wertet dies intern als Schritt in Richtung Massenüberwachung.

Mögliche Reaktionen:

  • Anbieter verweist auf Nutzungsrichtlinien und lehnt Erweiterung ab.

  • Behörde droht mit Ausschluss aus Folgeprojekten oder setzt in Ausschreibungen künftig auf „Policy-neutrale“ Anbieter.


Für beide Seiten entscheidend:

  • Frühzeitige, dokumentierte Governance-Verhandlungen statt ad-hoc-Entscheidungen im Krisenmodus.


Handlungsempfehlungen für CIOs, CDOs, Legal & Compliance


1. Governance-by-Design in KI-Verträgen verankern

  • Use-Case-Register: Liste zulässiger, restringierter und verbotener Anwendungsfälle je Vertrag.

  • Audit-Rechte: Möglichkeit, Logdaten und Konfigurationen im Konfliktfall prüfen zu lassen.

  • Ethik-Klauseln: Explizite Festschreibung roter Linien und Eskalationspfade bei Dissens.


2. „Dual Governance“-Risiken antizipieren

  • Unterschiedliche Anforderungen von Heimat-Regulierern (z. B. EU) und ausländischen sicherheitskritischen Auftraggebern (z. B. US-Behörden) früh bewerten.

  • Entscheidung treffen, welcher Rahmen im Zweifel Vorrang hat – und dies intern wie extern transparent machen.


3. Strategische Positionierung festlegen

Vorstände sollten klar entscheiden:

  • Wollen wir als „any lawful use“-Partner auftreten – mit maximaler Nutzungshoheit für staatliche Kunden?

  • Oder positionieren wir uns als Anbieter mit nicht verhandelbaren ethischen Schranken, selbst mit dem Risiko des Ausschlusses aus bestimmten Märkten?


Diese Positionierung beeinflusst:

  • Zielkunden (Defence, Intelligence vs. rein zivile Anwendungen)

  • Investorenbasis und Reputationsprofil

  • Anforderungen an internes Responsible-AI- und Public-Affairs-Management


Fazit: Der Fall Claude Gov als Blaupause

Der aktuelle Streit zwischen Pentagon und Anthropic ist mehr als ein Einzelkonflikt um einen 200-Millionen-Dollar-Vertrag. Er markiert eine Verschiebung der Verhandlungsmacht in KI-Lieferketten:

  • Sicherheitskritische Auftraggeber erwarten vollständige Nutzungshoheit über Frontier-Modelle.

  • Einige Anbieter setzen harte Governance-Grenzen, auch auf Kosten von Umsatz und Marktanteil.


Für Unternehmen heißt das: Entscheidungen über Einsatzgrenzen von KI sind keine rein ethischen oder technischen Fragen mehr – sie sind strategische Markt- und Lieferkettenentscheidungen mit unmittelbaren Konsequenzen für Zugang zu sicherheitsrelevanten Aufträgen und für die eigene Resilienz.


Häufig gestellte Fragen (FAQ)


Was ist der Konflikt zwischen dem Pentagon und Anthropic rund um Claude Gov?

Der Konflikt dreht sich darum, dass das US-Verteidigungsministerium Claude Gov ohne inhaltliche Einsatzgrenzen für alle rechtmäßigen militärischen Zwecke nutzen möchte. Anthropic lehnt dies ab und beharrt auf roten Linien gegen Massenüberwachung in den USA und vollständig autonome Waffensysteme, was zu Drohungen eines Ausschlusses aus der militärischen Lieferkette führt.


Wie beeinflusst der Claude-Gov-Fall die Gestaltung von KI-Verträgen in sicherheitskritischen Bereichen?

Der Fall zeigt, dass Use-Case-Policies zu harten Ausschlusskriterien in militärischen und behördlichen Ausschreibungen werden können. Unternehmen müssen Einsatzkategorien, Ausnahmeprozesse und Exit-Klauseln vertraglich klar regeln, um Konflikte zwischen Governance-Anforderungen und Sicherheitsbedarfen zu vermeiden.


Welche Auswirkungen hat der Streit auf KI-Lieferketten und Third-Party-Risk-Management?

Wenn ein zentraler KI-Anbieter als Lieferkettenrisiko eingestuft wird, können ganze Marktsegmente oder kritische Projekte ins Wanken geraten. Organisationen müssen Abhängigkeiten von einzelnen Frontier-Modellen kartieren, Alternativen evaluieren und technische wie rechtliche Fallback-Szenarien planen.


Was ist der Unterschied zwischen Nutzungshoheit („any lawful use“) und Anbieter-Ethik bei KI-Systemen?

Nutzungshoheit bedeutet, dass der Auftraggeber KI-Modelle für alle rechtlich zulässigen Zwecke einsetzen möchte, ohne zusätzliche Beschränkungen durch den Anbieter. Anbieter-Ethik geht darüber hinaus und definiert rote Linien, etwa gegen Massenüberwachung oder autonome Waffen, selbst wenn diese rechtlich nicht ausdrücklich verboten sind.


Wie sollten CIOs und Rechtsabteilungen auf Konflikte wie beim Claude-Gov-Fall reagieren?

Sie sollten Governance-by-Design in Verträgen verankern, also ein detailliertes Use-Case-Register, Audit-Rechte und klare Ethik-Klauseln einführen. Zudem ist eine Multi-Model-Architektur mit Möglichkeit zum Lieferantenwechsel wichtig, um bei Governance-Konflikten handlungsfähig zu bleiben.


Wann gelten Frontier-KI-Modelle als kritische Infrastruktur und warum ist das relevant?

Frontier-Modelle werden faktisch zur kritischen Infrastruktur, wenn sie in klassifizierten Netzwerken oder sicherheitsrelevanten Entscheidungsprozessen eingesetzt werden. Dann steigen die Erwartungen an Verfügbarkeit, Steuerbarkeit und Hoheit des Auftraggebers, was vertragliche, technische und geopolitische Anforderungen massiv verschärft.


Was sollten Unternehmen jetzt strategisch entscheiden in Bezug auf KI-Governance?

Unternehmen sollten klären, ob sie sich als „any lawful use“-Partner ohne zusätzliche ethische Schranken positionieren oder bewusst nicht verhandelbare rote Linien definieren. Diese Grundsatzentscheidung beeinflusst Zielkunden, Marktchancen im Sicherheits- und Defence-Sektor sowie das eigene Reputations- und Risikoprofil dauerhaft.