USA und China blocken gemeinsame Erklärung zu Militär-KI: Was das Ergebnis des REAIM-Gipfels in Spanien für Unternehmen bedeutet
06.02.2026
Auf dem REAIM-Gipfel 2026 im spanischen A Coruña haben 35 von 85 Staaten eine unverbindliche Erklärung zu militärischer KI unterzeichnet – die USA und China verweigerten ihre Zustimmung. Statt völkerrechtlich verbindlicher Regeln gibt es nur freiwillige Prinzipien zu menschlicher Kontrolle, Risikobewertung und Transparenz. Für Unternehmen im KI- und Rüstungsumfeld bleiben Exportkontrollen, Compliance-Anforderungen und Governance-Erwartungen damit fragmentiert, geopolitisiert und dynamisch. Der Beitrag analysiert die Auswirkungen auf Anbieter von KI-, Cloud- und Dual-Use-Technologien und zeigt, welche Governance- und Vertragsmaßnahmen jetzt nötig sind.
USA und China blocken gemeinsame Erklärung zu Militär-KI: Was das Ergebnis des REAIM-Gipfels in Spanien für Unternehmen bedeutet
Anfang Februar 2026 wurde auf dem dritten REAIM-Gipfel („Responsible AI in the Military Domain“) im spanischen A Coruña erneut versucht, internationale Leitplanken für den Einsatz von KI im Militär zu setzen. Rund ein Drittel der 85 teilnehmenden Staaten unterzeichnete eine Erklärung mit 20 Prinzipien zu Aufsicht, menschlicher Kontrolle und Risikobewertung – die USA und China verweigerten jedoch ihre Zustimmung.
Für Unternehmen ist das Signal klar: Ein weltweit konsistenter Mindeststandard für militärische und militärnahe KI ist nicht in Sicht. Exportkontrollen, Compliance- und Sorgfaltspflichten bleiben national und geopolitisch geprägt. Anbieter von KI- und Infrastrukturtechnologien müssen ihre Governance-Modelle und Vertragswerke noch stärker länderspezifisch ausrichten – und dabei eigene Standards definieren, die über das rechtlich Gebotene hinausgehen.
Kontext: Was in A Coruña konkret passiert ist
Der REAIM-Gipfel 2026 in Spanien
Der dritte REAIM-Gipfel fand am 4. und 5. Februar 2026 in A Coruña (Spanien) statt. Die Konferenz dient seit 2023 als globale Plattform, um Prinzipien für einen verantwortungsvollen Einsatz von KI im Militär zu diskutieren. Staaten, internationale Organisationen, Unternehmen und Forschungseinrichtungen sollen dort gemeinsame Grundlinien für Militär-KI („Military AI“) erarbeiten.
Bereits bei den vorangegangenen Treffen in Den Haag (2023) und Seoul (2024) wurden unverbindliche Leitlinien („Blueprints for Action“) verabschiedet. Diese waren politisch relevant, aber rechtlich nicht bindend und ohne Durchsetzungsmechanismen.
Die neue Erklärung: 20 Prinzipien – aber nur 35 Unterzeichner
In A Coruña einigten sich 35 der 85 vertretenen Staaten auf eine neue, etwas konkretere Erklärung zu militärischer KI. Kernelemente sind:
Bestätigung der menschlichen Verantwortung über KI-gestützte Waffensysteme und militärische Entscheidungsunterstützungssysteme.
Forderung klarer Befehlsketten und Verantwortlichkeiten bei Einsatzplanung, Betrieb und Überwachung von KI-Systemen.
Verpflichtung zu Risikobewertungen, insbesondere hinsichtlich unvorhergesehener Eskalationsdynamiken oder Fehlfunktionen.
Anforderungen an Tests, Validierung und Verifizierung von militärischen KI-Systemen vor und während ihres Einsatzes.
Transparenzschritte, z.B. der Austausch von Informationen zu nationalen Aufsichtsstrukturen, soweit „mit nationalen Sicherheitsinteressen vereinbar“.
Die Erklärung bleibt jedoch politisch, nicht rechtlich bindend. Sanktionsmechanismen, Überwachungsstrukturen oder klare Durchsetzungspflichten sind nicht vorgesehen.
USA und China: bewusste Nichtteilnahme
Besonders bemerkenswert ist, dass sowohl die USA als auch China – die beiden militärisch und technologisch wichtigsten Akteure im Bereich Militär-KI – die Erklärung nicht unterzeichnet haben. Hintergrund sind:
Geopolitische Spannungen zwischen den USA und Teilen Europas sowie das Misstrauen in Bezug auf künftige transatlantische Sicherheitsarchitekturen.
Strategische Zurückhaltung beider Großmächte, sich durch internationale Prinzipien im Wettlauf um militärische KI-Handlungsoptionen einschränken zu lassen.
Ein klassisches „Prisoner’s Dilemma“: Alle erkennen das Risiko unregulierter Militär-KI, aber niemand will den ersten Schritt zu substantiellen Begrenzungen machen, sofern der strategische Rivale nicht parallel gebunden wird.
Damit wiederholt sich ein Muster, das bereits bei anderen internationalen KI-Foren zu beobachten war: Umfangreiche, aber unverbindliche Aussagen – und zentrale Akteure, die sich formal nicht festlegen wollen.
Analyse: Was bedeutet das für den globalen KI-Governance-Rahmen?
Kein globaler Mindeststandard für militärische und Dual-Use-KI
Das Ergebnis des Gipfels bestätigt:
Es gibt keine global einheitliche Norm, die klar definiert, was bei militärischer oder dual-use-fähiger KI zulässig ist und was nicht.
Die unterzeichneten 20 Prinzipien sind zwar ein politischer Referenzpunkt, aber sie ersetzen keine nationalen Exportkontrollen, keine Sanktionsregime und keine branchenspezifischen Regelwerke.
Unternehmen, die KI-Komponenten liefern, die in militärischen oder sicherheitskritischen Kontexten eingesetzt werden können, bewegen sich weiterhin in einem Flickenteppich nationaler und regionaler Anforderungen.
Für die Praxis bedeutet das: Risikobewertungen können nicht auf „globale Standards“ verweisen, sondern müssen kontext- und länderspezifisch erfolgen – inklusive möglicher extraterritorialer Wirkungen (z.B. US-Sanktionsrecht, EU-Exportkontrollrecht).
Fragmentierung entlang geopolitischer Linien
Die Nichtunterzeichnung durch USA und China verstärkt eine Entwicklung, die sich bereits abzeichnete:
Transatlantische Divergenzen: Während EU-Staaten wie Deutschland, Frankreich und die Niederlande zu den Unterzeichnern gehören, zeigen die USA zurückhaltenderes Verhalten, wenn es um potenzielle Beschränkungen militärischer Fähigkeiten geht.
Großmachtwettbewerb USA–China: Beide Seiten wollen sich technologisch nicht einseitig begrenzen. Das reduziert die Wahrscheinlichkeit kurzfristig verhandelter, belastbarer Rüstungskontrollregime für KI.
Druck auf Drittstaaten: Staaten im Globalen Süden und kleinere NATO- oder EU-Partner geraten in die Rolle, sich politischen und technologischen Sphären zuzuordnen – auch im Bereich der Militär-KI.
Unternehmen müssen daher zunehmend mit unterschiedlichen, teils widersprüchlichen Erwartungshaltungen rechnen, je nachdem, ob sie für Kunden in den USA, China, der EU oder anderen Regionen tätig sind.
Governance-Lücke bei sicherheitskritischer KI
Mit Blick auf die reale Nutzung von KI in sicherheitskritischen Kontexten bleibt eine Governance-Lücke bestehen:
Technische Fähigkeiten (z.B. autonome Zielsuchsysteme, KI-gestützte Lagebilder, Entscheidungsunterstützung) entwickeln sich schnell und werden im militärischen wie im zivilen Bereich erprobt.
Rechtlich verbindliche Normen – etwa völkerrechtliche Abkommen zu autonomen Waffensystemen oder verbindliche Transparenzpflichten – existieren nur punktuell und auf nationaler Ebene.
Die jetzt vereinbarten Prinzipien sind Orientierungshilfe, aber kein Compliance-Maßstab im engen juristischen Sinn.
Für Unternehmen ergibt sich daraus die Notwendigkeit, eigene Governance-Standards zu etablieren, um Reputationsrisiken, Lieferkettenkonflikte und mögliche zukünftige Regulierungsverschärfungen zu antizipieren.
Praktische Auswirkungen für Unternehmen und Organisationen
1. Anbieter von KI-Systemen (Modelle, Software, Tooling)
Unternehmen, die KI-Modelle, Frameworks oder spezialisierte Software liefern, sehen sich mit folgenden Herausforderungen konfrontiert:
Dual-Use-Problematik: Viele Produkte haben sowohl zivile als auch militärische Anwendungen (z.B. Objekterkennung, Sprach- und Signalverarbeitung, Planungs- und Optimierungsalgorithmen). Ohne klaren globalen Rahmen bleibt die Verantwortung für Nutzungsbeschränkungen weitgehend beim Anbieter.
Vertrags- und Lizenzgestaltung:
- Ergänzung von End-Use-Klauseln, die militärische oder bestimmte sicherheitskritische Nutzungen untersagen oder an Transparenzpflichten knüpfen.
- Exportkontroll- und Sanktionsklauseln, die Kunden verpflichten, nationale und internationale Vorschriften einzuhalten und Verstöße anzuzeigen.
Risikobewertung und Kunden-Due-Diligence:
- Systematische Einstufung von Produkten nach potenzieller militärischer bzw. sicherheitskritischer Relevanz.
- Verstärkte Prüfung von Kundenprofilen (z.B. staatsnahe Akteure, Rüstungsunternehmen, Sicherheitsbehörden) und Endanwendungen.
2. Cloud-, Rechenzentrums- und Infrastruktur-Provider
Für Infrastruktur-Anbieter (IaaS, PaaS, spezialisierte KI-Clouds, Rechenzentren) stellen sich zusätzliche Fragen:
Nutzung ihrer Infrastruktur für militärische KI – auch dann, wenn der direkte Vertragspartner ein ziviles Unternehmen ist, das wiederum für das Verteidigungsressort eines Staates arbeitet.
Standortabhängige Verpflichtungen:
- In der EU greifen KI-Verordnung, Exportkontrollen und Menschenrechts-Due-Diligence (z.B. Lieferkettengesetze).
- In den USA existieren eigene Exportkontroll- und Sanktionsregime, die auch nichtamerikanische Unternehmen treffen können.
Technische Kontrollen (soweit rechtlich und technisch möglich):
- Einschränkung bestimmter Modelltypen oder Rechenkapazitäten für besonders risikobehaftete Anwendungsfälle.
- Logging- und Monitoring-Konzepte, die bei Verdachtsfällen eine Untersuchung ermöglichen, ohne Geschäftsgeheimnisse oder Datenschutzrechte unverhältnismäßig zu tangieren.
3. Rüstungs- und Sicherheitsindustrie
Unternehmen mit direkter Nähe zum Militär- und Sicherheitssektor sind unmittelbar betroffen:
Positionierung gegenüber freiwilligen Prinzipien: Auch wenn Staaten wie die USA oder China nicht formell unterzeichnet haben, können europäische Auftraggeber (Bundeswehr, NATO-Organisationen) von Zulieferern erwarten, dass sie die REAIM-Prinzipien in ihren internen Prozessen berücksichtigen.
Integrationsverantwortung: Rüstungsunternehmen, die KI-Komponenten in Plattformen (Drohnen, Sensorverbünde, Führungsinformationssysteme) integrieren, müssen sicherstellen, dass Tests, Validierung und Eskalationsmechanismen nicht nur technisch, sondern auch dokumentiert und auditierbar sind.
Export und Offset-Geschäfte: Unterschiedliche Erwartungen entlang der geopolitischen Linien führen zu komplexen Verhandlungssituationen, in denen Unternehmen eigene rote Linien (z.B. keine Lieferung bestimmter Funktionalitäten in Konfliktregionen) definieren müssen.
4. Forschungs- und Entwicklungsorganisationen
F&E-Einrichtungen im zivilen wie militärischen Umfeld sollten:
Transparente Projektklassifikation etablieren (z.B. nach ziviler, dualer, militärischer Relevanz).
Ethik- und Review-Gremien nutzen, um risikoreiche Projekte zu identifizieren und ggf. mit zusätzlichen Kontrollmechanismen zu versehen.
Internationale Kooperationsverträge so gestalten, dass Exportkontrollen, geistige Eigentumsrechte und potenzielle militärische Anschlussverwendungen explizit adressiert werden.
Business-Relevanz: Was Unternehmen jetzt konkret tun sollten
1. Eigene Militär- und Sicherheits-KI-Policy definieren
Unabhängig davon, ob nationale Gesetze dies bereits verlangen, sollten Unternehmen eine interne Policy für militärische und sicherheitskritische KI-Nutzung etablieren. Elemente können sein:
Definition von Hochrisiko-Anwendungsfällen (z.B. Zielerkennung, autonome Navigation in bewaffneten Plattformen, Angriffsplanung, Massenüberwachung).
Kategorisierung erlaubter, bedingt erlaubter und untersagter Nutzungen – inklusive Kriterien und Entscheidungswege.
Verfahren für Ausnahmen, etwa bei Regierungsaufträgen, einschließlich Eskalations- und Dokumentationspflichten bis zur Geschäftsleitung bzw. zum Aufsichtsorgan.
Eine solche Policy schafft interne Klarheit, erleichtert die Kommunikation mit Kunden und Behörden und wirkt reputationssichernd, wenn internationale Standards weiterentwickelt werden.
2. Vertragsmanagement und AGB anpassen
Unternehmen sollten ihre Verträge und Allgemeinen Geschäftsbedingungen daraufhin prüfen, ob sie militärische oder sicherheitskritische Nutzungen adressieren. Konkrete Schritte:
Einbau von Nutzungsbeschränkungen und End-Use-Erklärungen.
Klare Informations- und Mitwirkungspflichten der Kunden bei Anfragen von Behörden oder internationalen Organisationen.
Auditrechte für besonders risikobehaftete Einsatzszenarien, soweit rechtlich möglich und zumutbar.
Regelungen zu Haftungsbegrenzung und -ausschlüssen, die missbräuchliche oder nicht genehmigte militärische Nutzung abdecken.
3. Risiko- und Compliance-Management ausbauen
Die Governance-Lücke erfordert stärkere interne Strukturen:
Interdisziplinäre Gremien (Recht, Technik, Vertrieb, Public Policy), die sicherheitskritische Deals und Projekte prüfen.
Szenario-basierte Risikoanalysen, die nicht nur juristische Non-Compliance, sondern auch diplomatische Spannungen, Sanktionsrisiken und öffentliche Kontroversen berücksichtigen.
Fortlaufendes Monitoring von Regulierung und Geopolitik:
- Entwicklungen in der EU (KI-Verordnung, Exportkontrolle), den USA (Exportkontrolllisten, Sanktionen), China (Daten- und Sicherheitsrecht) und multilateralen Foren.
- Teilnahme an Brancheninitiativen und Standardisierungsprozessen, um eigene Sichtweisen frühzeitig einzubringen.
4. Transparente Kommunikation und Stakeholder-Management
Da das Thema Militär-KI gesellschaftlich und politisch sensibel ist, benötigen Unternehmen eine proaktive Kommunikationsstrategie:
Veröffentlichung von KI-Governance- oder Responsible-AI-Reports, die explizit auch sicherheitskritische Anwendungen adressieren.
Dialogformate mit Zivilgesellschaft, Wissenschaft und Politik, um Erwartungen und Risiken frühzeitig zu identifizieren.
Interne Kommunikation gegenüber Mitarbeitenden, um klarzustellen, in welchen Projekten und für welche Anwendungsfälle sich das Unternehmen engagiert – und wo bewusst nicht.
Fazit: Keine globale Einigung – höhere Eigenverantwortung für Unternehmen
Der REAIM-Gipfel 2026 in Spanien verdeutlicht, dass internationale Einigungen zur Regulierung von Militär-KI politisch umstritten bleiben. Die Weigerung der USA und Chinas, die gemeinsame Erklärung zu unterzeichnen, schwächt den Anspruch eines globalen Referenzrahmens. Gleichzeitig steigt der Druck auf Unternehmen, eigenverantwortlich robuste Governance-Mechanismen für militärische und sicherheitskritische KI-Anwendungen zu etablieren.
Wichtigste Takeaways für Entscheidungsträger
Kein globaler Mindeststandard: Die REAIM-Erklärung mit 20 Prinzipien bleibt unverbindlich und wird von zentralen Militärmächten nicht mitgetragen.
Fragmentierte Regulierung: Unternehmen müssen mit einem heterogenen Mix aus nationalen und regionalen Regeln, Exportkontrollen und Sanktionsregimen arbeiten.
Erhöhte Eigenverantwortung: Anbieter von KI- und Infrastrukturtechnologien sollten eigene Militär- und Sicherheits-KI-Policies definieren und umsetzen.
Vertrags- und Compliance-Anpassungen nötig: End-Use-Klauseln, Due-Diligence-Prozesse und Risikomanagement müssen militärische und dual-use-fähige Anwendungen explizit berücksichtigen.
Reputations- und Sanktionsrisiken aktiv steuern: Wer heute transparente Governance-Strukturen aufbaut, reduziert das Risiko zukünftiger Konflikte mit Gesetzgebern, Kunden und Öffentlichkeit.
Strategische Chance für verantwortliche Akteure: Unternehmen, die verantwortungsvolle Militär-KI-Governance glaubwürdig umsetzen, können sich langfristig als bevorzugte Partner von Staaten, internationalen Organisationen und Großkunden positionieren.
Häufig gestellte Fragen (FAQ)
Was ist der REAIM-Gipfel 2026 und welches zentrale Ergebnis wurde in A Coruña erzielt?
Der REAIM-Gipfel 2026 ist eine internationale Konferenz zum verantwortungsvollen Einsatz von Künstlicher Intelligenz im Militär, die am 4. und 5. Februar 2026 in A Coruña stattfand. Dort einigten sich 35 von 85 Staaten auf eine unverbindliche Erklärung mit 20 Prinzipien zu Aufsicht, menschlicher Kontrolle, Risikobewertung und Transparenz bei Militär-KI, ohne jedoch rechtlich bindende Regeln zu schaffen.
Warum haben die USA und China die Erklärung zu militärischer KI nicht unterzeichnet?
Die USA und China verzichteten bewusst auf eine Unterzeichnung, um ihre militärischen Handlungsoptionen im Wettlauf um KI-Technologien nicht durch internationale Prinzipien einzuschränken. Geopolitische Spannungen, strategische Zurückhaltung und ein gegenseitiges Misstrauen nach dem Muster eines „Prisoner’s Dilemmas“ spielen dabei eine zentrale Rolle.
Welche Auswirkungen hat das Scheitern eines globalen Mindeststandards für militärische KI auf Unternehmen?
Ohne global einheitliche Normen bleiben Exportkontrollen, Sanktionsregime und Compliance-Pflichten stark national und geopolitisch fragmentiert. Unternehmen müssen daher mit einem Flickenteppich unterschiedlicher Regeln umgehen und ihre Risikoanalysen sowie Governance-Strukturen kontext- und länderspezifisch ausgestalten.
Was ist der Unterschied zwischen rechtlich bindenden Regeln und den REAIM-Prinzipien zu Militär-KI?
Rechtlich bindende Regeln sind in Gesetzen, Abkommen oder Verordnungen verankert und mit Durchsetzungs- und Sanktionsmechanismen verbunden. Die REAIM-Prinzipien sind hingegen politisch motivierte, freiwillige Leitlinien ohne unmittelbare Rechtsverbindlichkeit, die Orientierung bieten, aber keinen juristischen Compliance-Maßstab ersetzen.
Wie sollten Anbieter von KI-, Cloud- und Dual-Use-Technologien jetzt reagieren?
Diese Unternehmen sollten eigene Militär- und Sicherheits-KI-Policies definieren, Hochrisiko-Anwendungsfälle klar kategorisieren und Nutzungsbeschränkungen in Verträgen und AGB verankern. Ergänzend sind Kunden-Due-Diligence, End-Use-Klauseln, Exportkontroll-Compliance und interdisziplinäre Prüfprozesse für sicherheitskritische Projekte erforderlich.
Welche Governance-Maßnahmen sind für den Umgang mit militärischer oder sicherheitskritischer KI besonders wichtig?
Wesentlich sind interne Richtlinien zu erlaubten und untersagten Einsatzszenarien, transparente Entscheidungswege für Ausnahmen sowie dokumentierte Risiko- und Eskalationsprozesse. Ergänzend sollten Unternehmen Audit- und Monitoring-Konzepte, Ethik- oder Review-Gremien sowie eine proaktive Kommunikation gegenüber Behörden, Kunden und Öffentlichkeit etablieren.
Wie können sich Unternehmen trotz fragmentierter Regulierung strategisch positiv positionieren?
Unternehmen können sich als verantwortungsvolle Partner profilieren, indem sie über nationale Mindestanforderungen hinausgehen und robuste KI-Governance-Strukturen transparent machen, etwa in Responsible-AI-Reports. Wer frühzeitig klare rote Linien, hohe Standards bei Tests, Validierung und Exportkontrolle setzt, reduziert zukünftige Sanktions- und Reputationsrisiken und wird attraktiver für Staaten, internationale Organisationen und Großkunden.
