US wirft chinesischen Firmen systematischen Diebstahl von KI‑Modellen vor: Was Unternehmen jetzt über Export- und Sanktionsrisiken wissen müssen

26.04.2026

Die US-Regierung wirft chinesischen Firmen wie DeepSeek, Moonshot AI und MiniMax vor, in „industriellem Maßstab“ KI‑Modelle und Trainingsdaten aus US‑Labs zu stehlen. Ein weltweiter Warnhinweis des US‑Außenministeriums markiert eine neue Phase in der KI‑Geoökonomie: Strengere Exportkontrollen, gezielte Sanktionen und härtere Auflagen für grenzüberschreitende KI‑Kooperationen werden wahrscheinlicher. Der Artikel analysiert die Vorwürfe, mögliche Regulierungsfolgen und konkrete Implikationen für international agierende Unternehmen, insbesondere mit China‑Bezug.

US wirft chinesischen Firmen systematischen Diebstahl von KI‑Modellen vor: Was Unternehmen jetzt über Export- und Sanktionsrisiken wissen müssen


Was ist passiert?

Am 25. April 2026 hat das US-Außenministerium seine Botschaften weltweit angewiesen, Partnerregierungen vor angeblich „weit verbreiteten“ Versuchen chinesischer Unternehmen zu warnen, geistiges Eigentum aus US‑KI-Laboren zu stehlen. Namentlich genannt werden u. a. die chinesischen Anbieter DeepSeek, Moonshot AI und MiniMax. Die US-Regierung spricht von „deliberate, industrial-scale campaigns“ zur Destillation und Replikation sogenannter Frontier-Modelle aus den USA.([malaymail.com](https://www.malaymail.com/news/world/2026/04/25/us-state-dept-orders-global-warning-about-alleged-ai-thefts-by-deepseek-other-chinese-firms/217606?utm_source=openai))

Parallel hatte das Weiße Haus bereits am 23. April 2026 in einem Memo an Bundesbehörden erläutert, dass hauptsächlich von China aus gesteuerte Akteure zehntausende Proxy-Accounts, Jailbreaking-Techniken und Modell-Distillation nutzen, um Fähigkeiten und Gewichte führender US‑Modelle zu extrahieren.([axios.com](https://www.axios.com/2026/04/23/us-china-ai-theft-distillation?utm_source=openai))

China weist die Vorwürfe als „reine Verleumdung“ zurück und spricht von einem politisch motivierten Angriff auf die eigene KI‑Industrie.([pcgamer.com](https://www.pcgamer.com/software/ai/white-houses-claim-that-china-is-engaged-in-deliberate-industrial-scale-campaigns-to-distil-us-frontier-ai-systems-called-pure-slander-by-chinese-embassy/?utm_source=openai))


Was ist neu im Vergleich zur bisherigen Lage?


1. Vom Unternehmensproblem zum außenpolitischen Thema

Bisher galten Model-Leaks, Prompt-Exfiltration oder Training auf fremden Outputs als primär unternehmensbezogene IP‑Risiken. Neu ist, dass die USA diese Vorgänge klar als außen- und sicherheitspolitische Frage einstufen und daraus offizielle Diplomatie und potenzielle Sanktionspolitik ableiten. Das Außenministerium spricht von einer koordinierten globalen Informationskampagne gegenüber Verbündeten.([malaymail.com](https://www.malaymail.com/news/world/2026/04/25/us-state-dept-orders-global-warning-about-alleged-ai-thefts-by-deepseek-other-chinese-firms/217606?utm_source=openai))


2. Konkrete Nennung einzelner chinesischer Firmen

Mit DeepSeek, Moonshot AI und MiniMax werden erstmals spezifische Anbieter im Kontext mutmaßlichen KI‑Diebstahls auf diplomatischer Ebene adressiert.([taipeitimes.com](https://www.taipeitimes.com/News/biz/archives/2026/04/27/2003856281?utm_source=openai)) Das erhöht die Wahrscheinlichkeit:

  • künftiger gezielter Sanktionen oder Entity-Listings,

  • regulatorischer Einschränkungen für die Nutzung dieser Modelle in Behörden und kritischen Infrastrukturen westlicher Staaten,

  • reputationsbezogener Risiken für Unternehmen, die auf diese Modelle setzen.


3. Fokus auf Modell-Distillation als Angriffsvektor

Die US-Regierung benennt explizit Distillation-Kampagnen: kleinere Modelle werden systematisch auf Ausgaben großer Frontier-Modelle trainiert, um Performance bei geringeren Kosten zu replizieren.([cybernews.com](https://cybernews.com/security/white-house-china-stealing-us-ai-secrets-industrial-scale/?utm_source=openai)) Damit verschiebt sich die Debatte von „Datenklau“ hin zu „Capability-Klau“ – also der Extraktion von Fähigkeiten und Safety-Mechanismen aus geschlossenen Systemen.


4. Vorbereitung neuer Rechtsinstrumente

Mit dem im US-Kongress eingebrachten „Deterring American AI Model Theft Act“ (H.R. 8283) zeichnet sich ein rechtlicher Rahmen ab, der gezielt auf KI‑Modell-Diebstahl zielt, inklusive möglichen Sanktionen, Exportbeschränkungen und zivilrechtlichen Ansprüchen.([ainexusdaily.com](https://www.ainexusdaily.com/article/us-warns-allies-chinese-ai-model-distillation-theft?utm_source=openai))


Erwartbare Folgen: Exportkontrollen, Sanktionen, Fragmentierung


Verschärfte Exportkontrollen für KI‑Modelle und Hardware

  • Modelle & Gewichte: Ähnlich wie Hochleistungs-Chips könnten künftig auch Modell-Gewichte, bestimmte Architektur-Details oder spezialisierte Fein-Tunings explizit exportkontrolliert werden, wenn Empfänger in China sitzen oder mit den genannten Firmen kooperieren.

  • Cloud-Infrastruktur: US-Anbieter von Cloud-KI-Services könnten gezwungen sein, strengere Geo-Fencing-Mechanismen, Customer-Vetting und Audit-Logs einzuführen, um Distillation-Angriffe aus bestimmten Regionen zu verhindern.


Zielgerichtete Sanktionen gegen Firmen und Personen

Aus dem Muster früherer Technologiekonflikte (z. B. Halbleiter, Telekommunikation) lässt sich ableiten:

  • Entity Listings gegen bestimmte KI‑Firmen, deren Modelle oder Vertriebsgesellschaften,

  • Sekundärsanktionen für Nicht-US-Unternehmen, die bewusst mit sanktionierten Akteuren in Hochrisikobereichen kooperieren,

  • Beschränkungen für Investitionen (Outbound Investment Controls) in bestimmte chinesische KI‑Akteure.


Beschleunigte Fragmentierung der globalen KI‑Landschaft

Unternehmen müssen stärker mit einer Blockbildung rechnen:

  • US- und verbündete Jurisdiktionen vs. China-zentrierte KI‑Ökosysteme,

  • inkompatible Compliance-Anforderungen,

  • beschränkte Interoperabilität von Modellen und Datenspeichern über diese Blöcke hinweg.


Konkrete Implikationen für Unternehmen


1. Risikoanalyse für bestehende KI‑Lieferketten

Unternehmen – insbesondere in Europa – sollten kurzfristig prüfen:

  • Welche KI‑Modelle werden genutzt? Enthalten Tech-Stacks Komponenten chinesischer Anbieter wie DeepSeek-Modelle (z. B. V3/V4) oder Services von Moonshot AI / MiniMax, direkt oder über Integratoren?([taipeitimes.com](https://www.taipeitimes.com/News/biz/archives/2026/04/27/2003856281?utm_source=openai))

  • Wo laufen Trainings- und Inferenzprozesse? Liegen Trainingsdaten oder Modellgewichte in Cloud-Regionen, die regulatorisch in den Fokus geraten könnten (z. B. US-Hyperscaler mit globalen Regionen, darunter auch Hongkong/China)?

  • Welche Partner sitzen in Hochrisiko-Jurisdiktionen? Joint Ventures, Entwicklungszentren oder Dienstleister mit China-Bezug können zum Compliance-Risiko werden, wenn sie Zugang zu sensiblen Modellen oder Daten haben.


2. Schutz von Modellgewichten und Trainingsdaten stärken

Die US-Warnungen machen deutlich, dass systematische Distillation und Jailbreaking als realer Angriffsvektor betrachtet werden. Unternehmen, die eigene (auch kleinere) Modelle trainieren, sollten:

  • Feingranulare Zugriffskontrollen auf Modellgewichte etablieren (Zero-Trust, Need-to-know),

  • Rate Limits, Anomalieerkennung und Abuse-Detection gegen massenhaftes Abfragen (z. B. ungewöhnliche Prompt-Muster) implementieren,

  • Red-Teaming gegen Model-Extraction durchführen (z. B. simulierte API-Missbrauchskampagnen),

  • Vertragliche Verbote von Re-Training auf API-Ausgaben in Kundenverträgen klar regeln und technisch überwachen, soweit möglich.


3. Aufbau „souveräner“ oder segmentierter KI‑Stacks

Angesichts wachsender Geo- und Sanktionsrisiken zeichnet sich ein Trend zu segmentierten KI‑Architekturen ab:

  • Regional isolierte Stacks (z. B. EU‑Stack, US‑Stack, China‑Stack) mit klar getrennten Modellen, Datenräumen und Betriebsprozessen,

  • Souveräne KI‑Stacks für kritische Funktionen (Finanzmarktinfrastruktur, Gesundheit, öffentliche Verwaltung), bei denen IP und operative Kontrolle vollständig in vertrauenswürdigen Jurisdiktionen bleiben,

  • Fallback-Strategien: Für den Fall, dass bestimmte Modelle oder Cloud-Regionen kurzfristig reguliert oder sanktioniert werden, sollten alternative Modelle, Hoster oder On-Premise-Optionen identifiziert sein.


4. Governance & Compliance: Neue Fragen an Vorstand und Aufsichtsrat

Entscheider sollten KI‑Risikomanagement nicht nur als Datenschutz- oder Ethikthema sehen, sondern explizit um Geo- und Sanktionsrisiken erweitern:

  • Gibt es eine Karte kritischer Abhängigkeiten (Modelle, Daten, Hardware, Dienstleister) mit Länder- und Sanktionsbezug?

  • Werden Exportkontroll- und Sanktionslisten regelmäßig gegen KI‑Bezugsquellen und Partner abgeglichen?

  • Ist klar geregelt, welche Systeme im Notfall abgeschaltet oder migriert werden müssen, wenn ein Partner sanktioniert wird?


Praxisnahe Szenarien


Szenario 1: Europischer Industriekonzern mit China‑F&E

Ein DAX-Unternehmen betreibt ein KI‑Entwicklungszentrum in Shanghai, das auf US‑Cloud-Kapazitäten und Frontier-Modelle zurückgreift. Nach den neuen US-Warnungen verschärft der Cloud-Anbieter seine Bedingungen und untersagt den Zugriff aus bestimmten IP‑Ranges auf leistungsstarke Modelle.

Folgen:

  • Verzögerungen in der Produktentwicklung,

  • Notwendigkeit, Teile des F&E‑Betriebs in andere Regionen zu verlagern,

  • zusätzlicher Aufwand für interne Exportkontrollprüfungen.


Szenario 2: Mittelständischer SaaS-Anbieter mit DeepSeek-Integration

Ein europäischer SaaS-Anbieter nutzt ein preisgünstiges DeepSeek-Modell, um Kunden KI‑gestützte Funktionen anzubieten. Sollte DeepSeek auf US-Sanktionslisten landen oder westliche Behörden dessen Nutzung in kritischen Sektoren untersagen, drohen:

  • der kurzfristige Austausch des Modells,

  • Re‑Zertifizierungen (z. B. bei Finanz- oder Gesundheitsaufsichten),

  • Reputationsschäden bei sicherheitskritischen Kunden.


Handlungsempfehlungen für die nächsten 90 Tage

  1. Sofortige Bestandsaufnahme aller KI‑Modelle, Datenflüsse und Dienstleister mit Bezug zu China oder US-kritischen Jurisdiktionen.

  2. Risikobasierte Klassifizierung: Welche Modelle sind geschäftskritisch, welche Daten besonders sensibel (IP, Kundendaten, F&E)?

  3. Überprüfung der Vertragslage mit Cloud- und KI‑Anbietern auf Exportkontroll-, Sanktions- und Model-Extraction-Klauseln.

  4. Technische Härtung gegen Model-Distillation (Rate Limits, Monitoring, Abuse-Detection, Zugangskontrollen).

  5. Entwurf einer Roadmap für segmentierte oder souveräne KI‑Stacks, beginnend mit den kritischsten Geschäftsprozessen.


Wer diese Schritte frühzeitig angeht, reduziert nicht nur rechtliche und geopolitische Risiken, sondern erhöht auch die eigene Resilienz gegenüber einem sich weiter fragmentierenden globalen KI‑Ökosystem.


Häufig gestellte Fragen (FAQ)


Was genau wirft die US-Regierung chinesischen KI-Unternehmen wie DeepSeek, Moonshot AI und MiniMax vor?

Die US-Regierung beschuldigt diese Firmen, in industriellem Maßstab KI-Modelle und Trainingsdaten aus US-Laboren zu stehlen. Dabei sollen insbesondere Modell-Distillation, massenhafte API-Abfragen über Proxy-Accounts und Jailbreaking-Techniken genutzt werden, um Fähigkeiten und Sicherheitsmechanismen von Frontier-Modellen zu replizieren.


Was ist neu an der aktuellen US-Warnung im Vergleich zur bisherigen Lage im KI-Konflikt mit China?

Neu ist, dass mutmaßlicher KI-Diebstahl nicht mehr nur als IP- oder Unternehmensrisiko betrachtet wird, sondern als außen- und sicherheitspolitisches Thema. Zudem nennt die US-Regierung erstmals konkrete chinesische Anbieter beim Namen und bereitet mit neuen Gesetzesinitiativen gezielte Export- und Sanktionsinstrumente vor.


Wie funktioniert Modell-Distillation im Kontext von KI-Diebstahl?

Bei der Modell-Distillation wird ein kleineres Modell systematisch auf den Ausgaben eines leistungsstarken Frontier-Modells trainiert. Ziel ist es, dessen Leistungsfähigkeit weitgehend zu kopieren, ohne direkten Zugriff auf die ursprünglichen Gewichte zu haben, wodurch faktisch „Capabilities“ und teilweise auch Safety-Mechanismen exfiltriert werden können.


Welche Auswirkungen könnten die US-Vorwürfe und neuen Gesetze auf internationale Unternehmen haben?

Unternehmen müssen mit strengeren Exportkontrollen für KI-Modelle, möglichen Entity-Listings gegen bestimmte chinesische Anbieter und verschärften Compliance-Anforderungen rechnen. Das kann zu Lieferkettenunterbrechungen, notwendigen Modellwechseln, zusätzlichen Zertifizierungsaufwänden und einer stärkeren Fragmentierung globaler KI-Ökosysteme führen.


Was ist der Unterschied zwischen klassischem Datendiebstahl und dem von den USA betonten „Capability-Klau“?

Beim klassischen Datendiebstahl werden in erster Linie Trainingsdaten oder Quellcodes entwendet. Beim „Capability-Klau“ geht es darum, die Fähigkeiten eines geschlossenen Modells über seine Ausgaben zu extrahieren und zu replizieren, etwa durch Distillation, sodass Funktionsumfang und Verhalten nachgeahmt werden, ohne die Originaldaten direkt zu stehlen.


Welche konkreten Schritte sollten Unternehmen mit China-Bezug in den nächsten 90 Tagen unternehmen?

Unternehmen sollten eine Bestandsaufnahme aller KI-Modelle, Datenflüsse und Dienstleister mit China- oder Hochrisiko-Bezug durchführen und diese risikobasiert klassifizieren. Zudem sollten Verträge auf Exportkontroll- und Sanktionsklauseln geprüft, technische Schutzmaßnahmen gegen Model-Extraction ausgebaut und eine Roadmap für segmentierte oder souveräne KI-Stacks entwickelt werden.


Wie können Unternehmen ihre eigenen KI-Modelle besser vor Distillation und Model-Extraction schützen?

Wesentlich sind strikte Zugriffskontrollen auf Modellgewichte, fein granulare Berechtigungen und das Prinzip „Need-to-know“. Ergänzend sollten Rate Limits, Monitoring und Anomalieerkennung gegen massenhafte oder auffällige API-Abfragen eingeführt sowie vertragliche Verbote für das Re-Training auf API-Ausgaben klar geregelt und regelmäßig technisch überprüft werden.