Südkoreas souveränes KI-Modell unter Beschuss: Was die Open-Source-Kontroverse für Unternehmen weltweit bedeutet

14.01.2026

Südkoreas milliardenschweres Programm für ein „souveränes“ KI‑Basismodell gerät unter Druck: Mehrere der fünf Konsortien sollen in ihren angeblich von Grund auf in Korea entwickelten Modellen umfangreiche Open‑Source‑Komponenten, teils chinesischer Herkunft, einsetzen. Die Auseinandersetzung zeigt, wie schwammig Begriffe wie „souveräne KI“ und „from scratch“ in der Praxis sind – und warum Unternehmen ihre Due Diligence bei Modellherkunft, Lizenzen, Sicherheits‑ und Compliance‑Risiken deutlich verschärfen müssen.

Südkoreas souveränes KI-Modell unter Beschuss: Was die Open-Source-Kontroverse für Unternehmen weltweit bedeutet

Die südkoreanische Regierung steht mit ihrem nationalen KI-Basismodellprojekt unerwartet im Zentrum einer Grundsatzdebatte: Wie „souverän“ kann ein staatlich gefördertes Modell sein, wenn wesentliche Bausteine aus offenen und ausländischen Quellen stammen? Neue Berichte vom 14. Januar 2026 zeigen, dass mehrere der fünf beteiligten Konsortien umfangreich auf Open-Source-Komponenten – teils chinesischer Herkunft – zurückgreifen.

Für Unternehmen und Behörden weltweit ist diese Kontroverse mehr als ein lokaler Streit: Sie macht sichtbar, wie komplex die Abhängigkeiten in modernen KI-Stacks tatsächlich sind, welche Fallstricke hinter Labels wie „Sovereign AI“ liegen und wie sich das unmittelbar auf Compliance, Sicherheit und Beschaffung auswirkt.


Kontext: Was in Südkorea konkret passiert ist


Das nationale KI-Basismodellprogramm

Südkorea verfolgt seit 2025 ein mehrjähriges, staatlich finanziertes Programm, um ein „indigenes“ bzw. „souveränes“ KI-Basismodell zu entwickeln. Fünf Konsortien – angeführt von Naver Cloud, Upstage, SK Telecom, NC AI und LG AI Research – konkurrieren in einem mehrstufigen Verfahren um langfristige Förderung und strategischen Status. Ziel ist ein Modell, das technologisch weitgehend unabhängig von US- und chinesischen Anbietern ist und mindestens 95 % der Leistungsfähigkeit führender globaler Modelle erreicht.

Das Programm wird durch das Ministerium für Wissenschaft und ICT gesteuert. In den öffentlichen Ankündigungen wurde von einem „souveränen“ bzw. „selbst entwickelten“ Modell gesprochen, das „in Korea designt und vortrainiert“ sein müsse. Die politische Botschaft: technologische Souveränität und Reduktion von Abhängigkeiten.


Die jetzt eskalierte Open-Source-Debatte

Seit der öffentlichen Vorstellung der Modelle Ende Dezember 2025 und kurz vor der ersten Eliminationsrunde Mitte Januar 2026 häufen sich nun technische Analysen und Medienberichte, die drei der fünf Konsortien in die Defensive bringen:

  • Upstage: Dem Solar‑Open‑100B‑Modell wird vorgeworfen, Inferenz-Code eines chinesischen Modells des Anbieters Zhipu AI wiederzuverwenden.

  • SK Telecom: Beim Modell A.X K1 sollen Teile des Inferenz-Stacks starke Ähnlichkeiten mit Komponenten des chinesischen Modells DeepSeek aufweisen.

  • Naver Cloud: Für HyperCLOVA X Seed‑32B und verwandte Modelle wurden Übernahmen von Vision- und Audio‑Encodern sowie vortrainierten Gewichten aus Alibabas offenem Qwen‑Modell dokumentiert; einzelne Analysen sprechen von extrem hoher Ähnlichkeit (nahezu identische Vision-Encoder).


Andere Teilnehmer, insbesondere NC AI (VARCO) und LG AI Research (EXAONE), betonen hingegen, ihre Modelle vollständig eigenständig – von Datenerhebung über Pretraining bis Fine-Tuning – implementiert zu haben. EXAONE erzielte in den ersten Benchmarks die höchsten Durchschnittswerte und rangiert in unabhängigen Indizes als leistungsstärkstes heimisches Modell.


Unklare Definition von „from scratch“ und „souverän“

Kern des Konflikts ist weniger der Einsatz von Open Source an sich, sondern die Lücke zwischen politischer Rhetorik und technischen Kriterien:

  • In offiziellen Unterlagen wird domestische Modellkonzeption und Pretraining gefordert.

  • Gleichzeitig fehlt eine explizite Vorgabe, alle Code‑ und Modellkomponenten ohne externe Open‑Source‑Bausteine zu entwickeln.

  • Der Begriff „from scratch“ wurde in der öffentlichen Kommunikation stark betont, ist aber in den formalen Ausschreibungsunterlagen nur teilweise oder gar nicht juristisch präzise hinterlegt.


Die Folge: Anbieter und Regierung können plausibel argumentieren, dass die Nutzung von Open-Source-Komponenten nicht verboten war, während Kritiker auf eine politische Erwartungshaltung verweisen, die klar Richtung „vollständig heimisches Modell“ ging.


Detaillierte Analyse: Warum dieser Konflikt weit über Korea hinausweist


1. Entzauberung des Labels „Sovereign AI“

Der Fall zeigt, dass der Begriff „souveräne KI“ inzwischen zu einem politisch aufgeladenen, aber technisch unscharfen Label geworden ist:

  • Politische Ebene: Souveränität wird mit geopolitischer Unabhängigkeit, digitaler Resilienz und nationaler Sicherheit verknüpft.

  • Technische Ebene: Moderne Foundation-Modelle bauen regelmäßig auf Open-Source-Frameworks, Libraries, Datensätzen und teilweise Modellen auf – häufig aus unterschiedlichen Herkunftsländern.


Die koreanische Debatte macht deutlich: Ohne eine klar dokumentierte Architektur- und Lizenz-Transparenz bleibt „Sovereign AI“ für Käufer und Aufsichtsbehörden schwer überprüfbar. Unternehmen können sich nicht darauf verlassen, dass der Begriff automatisch geringe Auslandsabhängigkeiten oder klar geregelte IP bedeutet.


2. Konfliktlinie: Open Source vs. nationale Unabhängigkeit

Open-Source‑Komponenten sind im KI-Bereich Standard. Ihr Einsatz bringt Vorteile:

  • schnellere Entwicklungszyklen und geringere Kosten

  • Nutzung von Community-geprüftem Code

  • Vermeidung unnötiger Doppelarbeit


Im Kontext eines staatlich finanzierten Souveränitätsprojekts entstehen jedoch zusätzliche Spannungsfelder:

  • Sicherheits- und Abhängigkeitsrisiken: Selbst wenn der Code offen ist, kann seine Herkunft politische oder rechtliche Risiken bergen (z. B. Exportkontrollen, extraterritoriale Rechtsansprüche, Sanktionen).

  • Lizenz- und IP-Risiken: Open-Source-Lizenzen für Modelle und Gewichte sind oft jung und uneinheitlich; sie definieren nicht immer klar, was im Fall von Feintuning, Kombination oder Re‑Export gilt.

  • Akzeptanzprobleme: Steuerzahler und Parlamente erwarten bei „nationalen“ Programmen häufig sichtbare Eigenentwicklungen, nicht nur Integration und Veredelung bestehender Bausteine.


Die koreanische Kontroverse zeigt diese Bruchlinien in Reinform.


3. Governance-Lücke bei Modellherkunft (Model Provenance)

International wächst der Druck, Modellherkunft und Lieferketten (Model Supply Chain) nachvollziehbar zu dokumentieren. Der aktuelle Fall verdeutlicht, welche Fragen künftig verstärkt gestellt werden:

  • Welche Teile eines Modells (Architektur, Tokenizer, Embeddings, Encoder/Decoder, LoRA‑Adapter etc.) sind Eigenentwicklung, welche stammen aus Open Source?

  • Welche Datenquellen wurden verwendet, und in welchen Jurisdiktionen lagen diese Daten zum Zeitpunkt des Trainings?

  • Welche ausländischen Komponenten sind sicherheitsrelevant (z. B. Kryptomodul, Telemetrie, Update‑Mechanismen)?


Unternehmen werden sich darauf einstellen müssen, dass Kunden – insbesondere im öffentlichen Sektor und in regulierten Branchen – deutlich tiefer in diese Fragen einsteigen.


4. Bewertungs- und Benchmarking-Probleme

Die Diskussion in Korea macht zudem ein methodisches Problem sichtbar:

  • Neben einem gemeinsamen Benchmark‑Set durften Konsortien eigene Benchmarks wählen, die die Stärken ihrer Modelle betonen.

  • Gleichzeitig ist unklar, wie die Benchmarks mit Blick auf den Grad der Eigenentwicklung bzw. Originalität gewichtet werden.


Für Beschaffer bedeutet das: Reine Benchmark-Scores ohne Kontext zu Modellherkunft, Architektur und Lizenzlage reichen künftig nicht mehr aus, um eine fundierte Entscheidung zu treffen.


Konkrete Implikationen und Szenarien für Unternehmen


Szenario 1: Europäischer Mittelständler setzt auf „souveräne“ ausländische Modelle

Ein deutscher Industrieausrüster möchte kritische Konstruktionsdaten im Rahmen eines KI‑Assistenzsystems verarbeiten und entscheidet sich bewusst gegen US‑Hyperscaler. Stattdessen wählt er ein vermeintlich „souveränes“ Modell aus Südkorea oder einem anderen Land.

Mögliche Risiken:

  • Das Modell verwendet Open-Source‑Komponenten aus Drittstaaten mit unklaren Export- oder Nutzungsbeschränkungen.

  • Bei späteren Handelskonflikten kann es zu Lizenzänderungen oder Nutzungsstopps kommen.

  • Regulierer oder Aufsichtsbehörden (z. B. im Rahmen der EU‑KI‑Verordnung) stellen Fragen zur Herkunft der Trainingsdaten und Modellbausteine – die Dokumentation des Anbieters reicht nicht aus.


Konsequenz: Der Mittelständler muss kurzfristig die Modellplattform wechseln, was Kosten, Verzögerungen und Compliance‑Risiken erzeugt.


Szenario 2: Öffentliche Verwaltung beschafft „Sovereign AI“

Ein Ministerium schreibt eine Chatbot‑Lösung unter der Bedingung aus, dass ein „souveränes“ Modell im Sinne nationaler oder europäischer Anforderungen genutzt wird.

Ohne präzise Definition stellt sich später heraus:

  • Die Kernarchitektur basiert auf einem chinesischen Open‑Source‑Modell.

  • Ein Teil der Pretraining‑Daten wurde in Rechenzentren außerhalb der EU verarbeitet.


Folge:

  • Politische Kritik („Etikettenschwindel“), Untersuchungsausschüsse, Budgetstopps.

  • Potenzielle Rückabwicklung von Verträgen, Nachverhandlungen oder Schadenersatzforderungen.


Szenario 3: Globaler SaaS-Anbieter baut auf „Sovereign Stack“ auf

Ein SaaS-Player integriert als White‑Label‑Komponente ein national vermarktetes „souveränes“ Modell, um spezifische Anforderungen einzelner Märkte zu bedienen (z. B. Korea, Japan, EU).

Wenn sich später herausstellt, dass der Stack signifikant von ausländischen Open-Source‑Modellen abhängt:

  • muss der Anbieter alle Kundenverträge auf mögliche Fehlinformationen zur Herkunft und Souveränität prüfen,

  • drohen Reputationsschäden in regulierten Branchen,

  • kann es zu Nachbesserungspflichten hinsichtlich Dokumentation, Risikobewertung und Auditierbarkeit kommen.


Business-Relevanz: Was Unternehmen jetzt konkret tun sollten


1. Begriffe intern schärfen: Was bedeutet „souverän“ für Ihr Haus?

Unternehmen sollten intern verbindlich definieren:

  • Wann ein Modell als „souverän“ bzw. „national“ gilt (z. B. Datenstandorte, Eigentumsrechte, Kontrolle über Trainingsprozesse, Herkunft kritischer Komponenten).

  • Welche Minimalanforderungen an Eigenentwicklung bestehen (z. B. keine Übernahme vortrainierter Gewichte aus bestimmten Jurisdiktionen, keine sicherheitskritischen Module externer Herkunft).


Diese Definition sollte schriftlich fixiert und mit Rechtsabteilung, Informationssicherheit und ggf. Datenschutz abgestimmt werden.


2. Standardisierte Fragenkataloge für Modell-Due-Diligence etablieren

Beschaffer und Legal/Compliance‑Teams sollten einen Fragenkatalog für KI‑Modelle etablieren, der über klassische Funktions- und Preisthemen hinausgeht. Typische Fragen:

  • Aus welchen Open-Source‑Projekten oder kommerziellen Basismodellen stammen Teile des Modells (Code, Gewichte, Tokenizer, Encoder, Tools)?

  • Unter welchen Lizenzen stehen diese Komponenten, und gibt es bekannte Einschränkungen für kommerzielle oder behördliche Nutzung?

  • In welchen Ländern wurden Pretraining und Feintuning durchgeführt, und welche Cloud‑Infrastruktur kam zum Einsatz?

  • Gibt es eine Software Bill of Materials (SBOM) für KI‑Modelle bzw. ein vergleichbares Dokument, das die Herkunft der Komponenten transparent macht?


3. Vertragsklauseln zu Herkunft, Open Source und Änderungen ergänzen

In neuen Verträgen mit KI‑Anbietern sollten Unternehmen Klauseln aufnehmen, die u. a. regeln:

  • Transparenzpflichten zur Modellherkunft, einschließlich wesentlicher Open-Source‑Abhängigkeiten.

  • Notifikationspflichten, falls sich Lizenzen, Herkunft oder Komponenten des Modells wesentlich ändern.

  • Zusicherungen und Garantien, dass keine Rechte Dritter verletzt werden und dass alle relevanten Open-Source‑Lizenzen eingehalten werden.

  • Exit‑Klauseln und Migrationsrechte für den Fall, dass regulatorische oder geopolitische Entwicklungen den weiteren Einsatz des Modells unzumutbar machen.


4. Technische und rechtliche Bewertung verzahnen

Die koreanische Kontroverse zeigt, dass rein technische Prüfungen (Accuracy, Benchmarks, Latenz) nicht ausreichen.

Empfehlung:

  • Setzen Sie multidisziplinäre Bewertungsteams auf, in denen Technik, Recht, Compliance, Informationssicherheit und – je nach Branche – Datenschutz vertreten sind.

  • Verknüpfen Sie Risikoanalysen (z. B. nach ISO‑Normen, NIST‑Frameworks oder EU‑KI‑Verordnung) explizit mit der Frage der Modellherkunft.


5. Monitoring von „Sovereign AI“-Programmen in Schlüsselmärkten

Unternehmen mit internationaler Präsenz sollten systematisch verfolgen,

  • wie sich nationale Souveränitätsprogramme (Korea, EU, einzelne EU‑Mitgliedstaaten, Nahost, Indien etc.) weiterentwickeln,

  • welche Definitionen und Mindestanforderungen dort für „souveräne“ oder „vertrauenswürdige“ KI gelten,

  • und wie stark deren Vorgaben in Vergaberegeln und Branchennormen einfließen.


Der Fall Südkorea kann ein Frühindikator dafür sein, dass andere Staaten ihre Programme nachschärfen – etwa durch

  • klare Quoten für Eigenentwicklung,

  • explizite Positiv‑/Negativlisten für Open‑Source‑Projekte,

  • oder verpflichtende Offenlegung der Modell-Supply‑Chain.


Fazit: „Souverän“ ist kein Selbstläufer – Unternehmen müssen nachfragen

Die Auseinandersetzung um Südkoreas nationales KI‑Basismodell macht deutlich, wie groß die Kluft zwischen politischer Erzählung und technischer Realität in der KI-Entwicklung sein kann. Open-Source‑Komponenten sind unverzichtbar, stehen aber im Spannungsfeld zu Souveränitätsnarrativen. Für Unternehmen heißt das: Sie müssen sich auf deutlich strengere Fragen zu Modellherkunft, Lizenzlage und geopolitischen Abhängigkeiten vorbereiten – und diese Fragen aktiv stellen.

Zentrale Takeaways für Entscheider:

  • Die koreanische Kontroverse zeigt, dass das Label „Sovereign AI“ ohne präzise Definition wenig Aussagekraft über tatsächliche Unabhängigkeit und IP‑Lage hat.

  • Open Source bleibt zentraler Baustein moderner KI, kollidiert aber mit politischen Erwartungen an „von Grund auf“ nationale Modelle.

  • Unternehmen sollten klare interne Kriterien definieren, wann ein Modell für sie als „souverän“ oder „regulatorisch unbedenklich“ gilt.

  • Due-Diligence-Prozesse für KI-Modelle müssen Herkunft, Lizenzen, Datenstandorte und Benchmark-Transparenz systematisch einbeziehen.

  • Verträge mit KI‑Anbietern sollten Transparenz‑ und Notifikationspflichten zur Modellherkunft festschreiben und Exit‑Szenarien abbilden.

  • Wer in regulierten oder staatlichen Märkten agiert, sollte die Entwicklung nationaler KI‑Programme aktiv monitoren, um frühzeitig auf geänderte Anforderungen an „Sovereign AI“ reagieren zu können.


Häufig gestellte Fragen (FAQ)


Was versteht man unter „souveräner KI“ im Kontext des südkoreanischen Basismodellprogramms?

Unter „souveräner KI“ wird in Südkorea ein nationales Basismodell verstanden, das möglichst unabhängig von ausländischen Technologieanbietern ist und in zentralen Teilen im eigenen Land konzipiert und trainiert wurde. Ziel ist es, geopolitische Abhängigkeiten zu reduzieren, nationale Sicherheitsinteressen zu wahren und kritische Daten in kontrollierten Infrastrukturen zu verarbeiten.


Warum ist die Open-Source-Nutzung in Südkoreas KI-Projekt so umstritten?

Die Kontroverse entsteht, weil die Regierung öffentlich „von Grund auf in Korea entwickelte“ Modelle angekündigt hat, während Analysen zeigen, dass mehrere Konsortien umfangreich Open-Source-Komponenten – teils aus China – nutzen. Rechtlich war Open Source nicht ausdrücklich verboten, aber politisch wurde der Eindruck eines weitgehend eigenständigen, nationalen Technologie-Stacks erweckt.


Welche Risiken entstehen für Unternehmen, wenn sie auf angeblich „souveräne“ KI-Modelle setzen?

Unternehmen riskieren, dass sich hinter dem Label „souverän“ in Wahrheit komplexe Abhängigkeiten von ausländischen Open-Source-Projekten und unklaren Lizenzen verbergen. Im Ernstfall kann das zu Nutzungsstopps, regulatorischen Konflikten, Vertragsrisiken und teuren Plattformwechseln führen, wenn Aufsichtsbehörden oder Kunden strengere Anforderungen an Herkunft und Compliance stellen.


Wie sollten Unternehmen den Begriff „souveränes KI-Modell“ intern definieren?

Unternehmen sollten schriftlich festlegen, welche Kriterien ein Modell erfüllen muss, um als „souverän“ oder „national“ zu gelten – etwa Datenstandorte, Eigentumsrechte, Kontrolle über Trainingsprozesse und Herkunft kritischer Komponenten. Diese Definition sollte mit Rechtsabteilung, Informationssicherheit und Datenschutz abgestimmt werden, um sie in Beschaffung, Risikoanalysen und Verträge zu integrieren.


Welche Due-Diligence-Fragen sollten Beschaffer zu Modellherkunft und Open Source stellen?

Beschaffer sollten gezielt nach der Herkunft von Code, Gewichten, Tokenizer, Encodern und verwendeten Basismodellen fragen und sich die zugehörigen Lizenzen erläutern lassen. Zudem sind Informationen zu Trainings- und Feintuning-Standorten, genutzter Cloud-Infrastruktur sowie eine Art „Software Bill of Materials“ (SBOM) für das Modell wichtig, um rechtliche, sicherheitsrelevante und geopolitische Risiken bewerten zu können.


Wie können Unternehmen vertraglich absichern, dass KI-Anbieter transparent mit Modellherkunft umgehen?

In Verträgen sollten Transparenz- und Notifikationspflichten zur Modellherkunft, einschließlich wesentlicher Open-Source-Abhängigkeiten, festgeschrieben werden. Ergänzend sind Zusicherungen zur Einhaltung von Lizenzen, Garantien zur Nichtverletzung von Rechten Dritter sowie Exit-Klauseln und Migrationsrechte sinnvoll, falls regulatorische oder geopolitische Entwicklungen den weiteren Einsatz des Modells problematisch machen.


Welche Lehren lassen sich aus dem südkoreanischen Fall für internationale „Sovereign AI“-Programme ziehen?

Der Fall zeigt, dass ohne präzise, überprüfbare Kriterien der Begriff „Sovereign AI“ für Käufer wenig belastbar ist und politischer Erwartungsdruck schnell in Vorwürfe des Etikettenschwindels umschlagen kann. Staaten und Unternehmen werden künftig klarere Vorgaben zu Eigenentwicklungsquoten, Offenlegung der Modell-Supply-Chain und erlaubten Open-Source-Komponenten etablieren müssen, damit Souveränitätsversprechen glaubwürdig bleiben.