Südkoreas neues AI Basic Law: Was das unternehmensfreundliche KI-Grundlagengesetz für globale Unternehmen bedeutet

31.12.2025

Südkorea hat am 30. Dezember 2025 ein umfassendes, bewusst unternehmensfreundlich gestaltetes KI-Grundlagengesetz verabschiedet. Das „Framework Act on the Development of Artificial Intelligence and the Creation of a Foundation for Trust“ tritt am 22. Januar 2026 in Kraft und macht Südkorea zu einem der ersten Staaten im Asien-Pazifik-Raum mit einem verbindlichen, aber innovationsorientierten KI-Regime. Der Beitrag analysiert zentrale Inhalte, die einjährige Sanktions-Übergangsphase, Auswirkungen auf internationale Compliance-Strategien und konkrete Handlungsfelder für Unternehmen.

Südkoreas neues AI Basic Law: Was das unternehmensfreundliche KI-Grundlagengesetz für globale Unternehmen bedeutet

Südkorea wird am 22. Januar 2026 eines der ersten Länder weltweit sein, das ein umfassendes KI-Grundlagengesetz mit rechtlich verbindlichen Vorgaben in Kraft setzt. Mit dem „Framework Act on the Development of Artificial Intelligence and the Creation of a Foundation for Trust“ (oft auch „AI Basic Act“ genannt) positioniert sich das Land bewusst zwischen Innovationsförderung und Vertrauensschutz – und wählt dabei einen deutlich wirtschaftsfreundlicheren Ansatz als etwa die EU mit dem AI Act.

Für Unternehmen, die in Südkorea tätig sind oder mit südkoreanischen Partnern zusammenarbeiten, verändert sich der regulatorische Rahmen ab 2026 grundlegend. Zugleich bleibt Zeit: Die Regierung kündigt mindestens ein Jahr Übergangsphase mit beratungsorientierter Umsetzung statt harter Sanktionen an.


1. Kontext: Was ist passiert – und wer ist betroffen?


1.1 Politische Entscheidung und Zeitplan

Am 30. Dezember 2025 hat die südkoreanische Nationalversammlung überarbeitete Fassungen des KI-Rahmengesetzes verabschiedet. Das Gesetz wurde ursprünglich Anfang 2025 beschlossen, nun aber vor dem Inkrafttreten im Detail nachgeschärft und gebündelt. Es tritt am 22. Januar 2026 in Kraft und bildet damit einen der weltweit ersten umfassend wirksamen KI-Rechtsrahmen.

Die Regierung hebt drei Elemente besonders hervor:

  • Klarer Starttermin: Verbindliche Geltung des Gesetzes ab 22. Januar 2026.

  • Übergangsphase ohne unmittelbare Strafmaßnahmen: Mindestens ein Jahr lang liegt der Fokus auf Beratung, Schulung und finanzieller Unterstützung statt auf Bußgeldern.

  • Verzahnung von Industriepolitik und Regulierung: Die Norm ist nicht nur ein Schutz- und Aufsichtsgesetz, sondern gleichzeitig ein Instrument zur systematischen Förderung von KI-Ökosystem und Leitmärkten.


Betroffen sind nicht nur große Tech-Konzerne, sondern prinzipiell alle Unternehmen, die KI-Systeme entwickeln, bereitstellen oder betreiben – auch im B2B-Bereich und in klassischen Industrien wie Automotive, Fertigung, Finanzdienstleistungen, Gesundheitswesen oder öffentlicher Verwaltung.


1.2 Akteure und Governance-Struktur

Das Gesetz ordnet zentrale Rollen zu:

  • Ministerium für Wissenschaft und IKT (MSIT): Federführung für nationale KI-Strategie, Masterpläne und viele Umsetzungsakte.

  • Nationale KI-Strategiekommission: Übergreifendes Koordinationsgremium für Strategie, Regulierung und Förderpolitik.

  • Spezialisierte KI-Forschungsinstitute: Gesetzliche Grundlage für neue Forschungszentren und Testumgebungen.

  • Öffentliche Auftraggeber: Müssen KI-Lösungen priorisiert in Beschaffung und Dienstleistungsverträgen prüfen und einsetzen.


Damit bündelt Südkorea Strategie, Förderung und Regulierung in einem einzigen Gesetzesrahmen – ein deutlicher Unterschied zu fragmentierten Regelwerken in vielen anderen Jurisdiktionen.


2. Zentrale Inhalte des AI Basic Act


2.1 Doppelfunktion: Innovationsförderung und Vertrauensbasis

Das Gesetz verfolgt zwei gleichberechtigte Ziele:

  1. Förderung der KI-Entwicklung und -Nutzung in Wirtschaft, Verwaltung und Gesellschaft.

  2. Aufbau einer vertrauenswürdigen KI-Basis, um Grundrechte, Menschenwürde und gesellschaftliche Teilhabe zu schützen.


Konkret bedeutet das:

  • Einrichtung und Finanzierung von KI-Forschungszentren und Kompetenzclustern.

  • Gesetzliche Grundlagen für öffentliche Förderprogramme, Start-up-Fonds und Talentprogramme.

  • Verbindliche Vorgaben zu Transparenz, Risiko- und Sicherheitsmanagement, insbesondere bei „hochauswirkenden“ KI-Systemen.


2.2 „Business-friendly“: Übergangsfrist und Unterstützungsangebote

Anders als die EU mit ihrem AI Act setzt Südkorea zum Start auf einen explizit unternehmensfreundlichen Pfad:

  • Mindestens einjährige Schonfrist vor Sanktionen: Das Gesetz gilt ab 22. Januar 2026, aber Straf- und Durchsetzungsmechanismen werden zunächst de-facto ausgesetzt.

  • Starker Beratungsfokus: Regierung und nachgeordnete Behörden bieten kostenfreie Beratungs- und Consultingprogramme für Unternehmen an, die ihre KI-Systeme an die neuen Anforderungen anpassen möchten.

  • Finanzielle Unterstützung: Insbesondere KMU und Start-ups können mit Förderungen rechnen, etwa für den Aufbau von Compliance-Strukturen, Dokumentation und technischen Sicherheitsmaßnahmen.


Für Unternehmen bedeutet das: Die regulatorische Richtung ist klar und verbindlich, aber es besteht ein aktives Lern- und Anpassungsfenster, ohne sofortige Sanktionsrisiken.


2.3 Rollen und Pflichten: Entwickler, Betreiber, Staat

Der AI Basic Act unterscheidet im Kern drei Verantwortungsträger:

  1. KI-Entwickler (Hersteller von Modellen, Algorithmen und KI-Systemen)

  2. KI-Betreiber (Unternehmen, die KI in Produkte, Services oder Geschäftsprozesse integrieren)

  3. Staatliche Stellen (als Regulator, Förderer und Nutzer von KI)


Pflichten für Entwickler und Betreiber umfassen unter anderem:

  • Sicherheits- und Qualitätsanforderungen für bestimmte Anwendungen, insbesondere in kritischen Sektoren (z. B. Gesundheit, Bildung, öffentliche Verwaltung).

  • Transparenzpflichten für ausgewählte Systeme (z. B. Kennzeichnung von KI-Interaktionen, Offenlegung bestimmter Systeminformationen gegenüber Aufsichtsbehörden).

  • Risikomanagementprozesse, untergliedert nach Risikoklassen bzw. Wirkungsbereichen.


Der Staat verpflichtet sich gleichzeitig, eine verlässliche Infrastruktur und Datenbasis bereitzustellen – etwa durch:

  • Bereitstellung von öffentlichen Daten als Trainingsdaten unter definierten Sicherheits- und Datenschutzstandards.

  • Aufbau von nationalen KI-Rechenkapazitäten und Förderprogrammen für KI-Talente.


2.4 Fokus auf öffentliche Nachfrage und Zugänglichkeit

Ein wesentlicher Baustein der jüngsten Gesetzesüberarbeitung ist die Hebelwirkung des öffentlichen Sektors:

  • Beschaffungspriorität für KI-Lösungen: Öffentliche Stellen sollen bei Beschaffung und Vergabe KI-Produkte und -Services bevorzugt prüfen und einsetzen, wenn diese funktional geeignet sind.

  • Förderung von Start-ups und KMU: Rechtsgrundlagen für Start-up-Förderfonds und spezielle Programme zur Markterschließung im öffentlichen Sektor.

  • Barrierefreiheit und Zugang für vulnerable Gruppen: Vorgaben, die sicherstellen sollen, dass Menschen mit Behinderung, Ältere oder wenig digital affine Nutzer an KI-Diensten teilhaben können; inkl. finanzieller Unterstützung.


Damit wird der Staat selbst zum Lead Customer für KI – ein bedeutender Unterschied zu rein verbotsorientierten Regimen.


3. Einordnung im globalen Regulierungsumfeld


3.1 Verhältnis zur EU: Zwei unterschiedliche Pfade

Im Vergleich zum EU AI Act zeigen sich klare Unterschiede:

  • Timing: Südkoreas Gesetz wird bereits im Januar 2026 wirksam und entfaltet damit deutlich früher umfassende Wirkung als die meisten zentralen Pflichten des EU AI Act (viele davon greifen schrittweise ab 2026/2027).

  • Sanktionslogik: In der EU stehen von Beginn an hohe Bußgelder und strikte Verbote im Mittelpunkt, in Südkorea dagegen eine phase-in-Strategie mit Fokus auf Beratung und Unterstützung.

  • Industriepolitik: Der AI Basic Act adressiert Förderpolitik, Infrastruktur und Personalentwicklung explizit im selben Gesetz, während diese Themen in der EU über andere Instrumente (z. B. Programme, Förderlinien) laufen.


Für global agierende Unternehmen entsteht damit ein Spannungsfeld:

  • In der EU: stärker risikominimierende, regelgetriebene KI-Strategie.

  • In Südkorea: innovations- und wachstumsorientierte Umsetzung bei gleichzeitig steigenden Vertrauensanforderungen.


3.2 Fragmentierung und „Regime-Komplex“

Mit Südkorea als einem der ersten Länder im Asien-Pazifik-Raum mit umfassendem KI-Gesetz zeichnen sich klare Linien der Regulierungsfragmentierung ab:

  • Unterschiedliche Risikodefinitionen und Systemkategorien.

  • Abweichende Anforderungen an Dokumentation, Transparenz und Aufsicht.

  • Variierende Durchsetzungskulturen (sanktions- vs. kooperationsorientiert).


Für internationale Unternehmen bedeutet dies, dass KI-Governance künftig nicht mehr monolithisch gedacht werden kann. Stattdessen werden regionale Compliance-Stacks entstehen müssen, die sich zwar auf gemeinsame Prinzipien stützen, aber lokal granular angepasst sind.


4. Praktische Beispiele und Einsatzszenarien


4.1 Hersteller von generativen KI-Modellen

Ein Anbieter eines großen Sprachmodells mit Entwicklungsstandort in Seoul steht künftig vor folgenden Aufgaben:

  • Aufbau eines Risikomanagementsystems, das etwa Missbrauch in sensiblen Bereichen (Medizin, Wahlen, Diskriminierung) bewertet und mitigiert.

  • Implementierung von Transparenzfeatures (z. B. Logging, erklärbare Ausgaben, Schnittstellen für Behörden zur Einsicht in bestimmte Dokumentationen).

  • Nutzung von staatlichen Beratungsangeboten zur Auslegung des Gesetzes, insbesondere in der Übergangsfrist.


In der Praxis könnte dies bedeuten, dass das Unternehmen zunächst freiwillig KI-Sicherheitsaudits nach vom MSIT empfohlenen Standards durchführt, die Ergebnisse mit Behörden diskutiert und erst danach verbindliche Prozesse festschreibt.


4.2 Automobilzulieferer mit KI-basierten Qualitätskontrollen

Ein südkoreanischer Zulieferer, der KI zur optischen Qualitätskontrolle in der Fertigung einsetzt, zählt im Vergleich zu medizinischen oder behördlichen Systemen vermutlich zu einem niedrigeren Risikosegment, muss aber dennoch:

  • dokumentieren, wie das System trainiert wurde und welche Qualitätsmetriken erreicht werden;

  • sicherstellen, dass bei Ausfällen oder Fehlklassifikationen Fallback-Prozesse existieren;

  • prüfen, ob Kundendaten oder Produktionsdaten unter die Regeln zur Nutzung von öffentlichen oder sensiblen Daten fallen.


Die Übergangsfrist ermöglicht es, diese Strukturen schrittweise aufzubauen – etwa zunächst mit einer einfachen Risikoklassifizierung und später mit detaillierten Prüfplänen.


4.3 Finanzdienstleister mit KI-basierten Scoring- und Beratungsanwendungen

Ein Finanzinstitut, das KI zur Kreditwürdigkeitsprüfung und digitalen Beratung einsetzt, wird voraussichtlich unter strengere Vertrauens- und Transparenzanforderungen fallen, beispielsweise:

  • Anforderungen an Diskriminierungsfreiheit und Fairness in Scoringmodellen;

  • Erklärbarkeitspflichten gegenüber Kunden („Warum wurde mein Kredit abgelehnt?“);

  • strengere Vorgaben zur Datenherkunft und zum Umgang mit personenbezogenen Daten in KI-Modellen.


Hier kann die staatliche Beratung genutzt werden, um etwa Pilotverfahren mit der Aufsicht zu definieren, in denen neue Modelle zunächst in kontrollierten Umgebungen getestet werden, bevor sie flächendeckend zum Einsatz kommen.


4.4 Öffentliche Verwaltung als Lead-Anwender

Behörden, Kommunen oder Krankenhäuser in öffentlicher Trägerschaft werden durch die Beschaffungsvorgaben ermutigt oder verpflichtet, KI-Lösungen aktiv zu prüfen:

  • Einsatz von Chatbots im Bürgerservice,

  • Priorisierung KI-gestützter Dokumentenverarbeitung in Ausschreibungen,

  • Nutzung von KI in der Verkehrssteuerung oder im Energiemanagement kommunaler Infrastruktur.


Für Anbieter eröffnet dies neue B2G-Marktchancen, setzt aber auch ein hohes Maß an Vertrauenswürdigkeit, Barrierefreiheit und Nachvollziehbarkeit voraus.


5. Geschäftsrelevanz: Was Unternehmen jetzt tun sollten


5.1 KI-Inventur und Mapping gegen den AI Basic Act

Unternehmen sollten frühzeitig eine systematische Bestandsaufnahme aller KI-Anwendungen durchführen:

  • Wo werden bereits heute KI-Modelle eingesetzt (Produktion, Vertrieb, HR, IT, F&E, Compliance)?

  • Welche Systeme sind kritisch für Kunden, Sicherheit oder Grundrechte?

  • Welche Modelle basieren auf externen Plattformen (Cloud- oder Foundation-Modelle), welche sind Eigenentwicklungen?


Anschließend sollte ein Mapping auf die Risikologik des AI Basic Act erfolgen. Auch wenn Details der Risikodefinitionen teilweise erst in nachgeordneten Rechtsverordnungen konkretisiert werden, lässt sich bereits eine grobe Kategorisierung ableiten (z. B. hochauswirkende vs. geringere Anwendungen).


5.2 Aufbau eines schlanken, aber skalierbaren KI-Governance-Modells

Die Übergangsfrist bietet die Chance, Governance „in Ruhe“ aufzubauen:

  • Definition einer zentralen KI-Governance-Funktion (z. B. im Rahmen von Risk, Compliance oder Data Governance).

  • Entwicklung minimaler Standards für Dokumentation, Modelltests, Monitoring und Incident-Management.

  • Einführung eines KI-Use-Case-Review-Prozesses, in dem neue Projekte vor Rollout zumindest kurz auf regulatorische Relevanz geprüft werden.


Wichtig ist, Governance so zu gestalten, dass sie skalierbar bleibt und sich später vergleichsweise einfach an EU-, US- oder andere regionale Anforderungen anpassen lässt.


5.3 Nutzung staatlicher Beratungs- und Förderangebote

Da der AI Basic Act explizit Consulting- und Förderinstrumente vorsieht, sollten Unternehmen:

  • früh Kontakt zu zuständigen Behörden und Programmen aufnehmen;

  • Pilotprojekte und Proof-of-Concepts bewusst als „Lernprojekte“ mit Behörden gestalten;

  • Fördermittel für Aufbau von Dokumentation, Auditierung und technischen Sicherheitsmaßnahmen aktiv prüfen.


Insbesondere KMU können so Kosten und Komplexität der erstmaligen KI-Compliance deutlich reduzieren.


5.4 Globale Harmonisierung von KI-Compliance

Multinationale Konzerne mit Aktivitäten in der EU, in Südkorea und anderen Regionen sollten frühzeitig eine globale KI-Compliance-Architektur entwerfen:

  • Grundprinzipien (Risikobewertung, Dokumentation, Transparenz, Human Oversight) einheitlich definieren.

  • Regionale Besonderheiten (z. B. detaillierte Verbote in der EU, unternehmensfreundliche Übergangslogik in Korea) als regionale Aufsätze auf einem globalen Basismodell implementieren.

  • Zentralisierte Model Cards, Datenkataloge und Audit-Trails aufbauen, die in allen Jurisdiktionen nutzbar sind.


Auf diese Weise lassen sich Skaleneffekte nutzen, statt für jede Jurisdiktion vollständig separate Strukturen zu entwickeln.


6. Fazit: Fenster der Gelegenheit für strategische KI-Governance

Mit dem AI Basic Act macht Südkorea ernst: Künstliche Intelligenz wird nicht mehr nur politisch diskutiert, sondern in einem verbindlichen, aber wirtschaftsorientierten Rechtsrahmen verankert. Das Land kombiniert klare Regeln mit einer außergewöhnlich kooperativen Übergangsphase.

Für Unternehmen ist dies ein Fenster der Gelegenheit:

  • KI-Inventar und -Risiken geordnet zu erfassen,

  • Governance-Strukturen aufzubauen,

  • Förder- und Beratungsangebote strategisch zu nutzen und

  • gleichzeitig Marktchancen in einem stark wachstumsorientierten KI-Ökosystem zu erschließen.


Zentrale Takeaways für Unternehmen

  • Verbindliches KI-Gesetz ab 22. Januar 2026: Südkorea setzt einen der ersten umfassenden KI-Rechtsrahmen mit klar definierten Pflichten für Entwickler, Betreiber und Staat.

  • Mindestens einjährige Übergangsphase: Anstelle sofortiger Sanktionen setzt die Regierung auf Beratung, Schulung und finanzielle Unterstützung – Unternehmen sollten dieses Lernfenster aktiv nutzen.

  • Industriepolitik und Regulierung in einem Gesetz: Der AI Basic Act verknüpft Infrastruktur, Förderpolitik und Vertrauensanforderungen und macht den Staat zum Lead Customer für KI.

  • Steigende Fragmentierung globaler KI-Regeln: Unterschiede zwischen EU AI Act, koreanischem AI Basic Act und anderen Regimen erfordern regionale Compliance-Strategien auf Basis eines globalen Governance-Frameworks.

  • Jetzt handeln lohnt sich: Wer früh KI-Inventur, Risikoklassifizierung und Governance-Prozesse etabliert, reduziert nicht nur Compliance-Risiken, sondern verschafft sich zugleich einen strukturellen Wettbewerbsvorteil im koreanischen und globalen KI-Markt.


Häufig gestellte Fragen (FAQ)


Was ist der südkoreanische AI Basic Act und ab wann gilt er?

Der AI Basic Act („Framework Act on the Development of Artificial Intelligence and the Creation of a Foundation for Trust“) ist ein umfassendes KI-Grundlagengesetz Südkoreas. Er tritt am 22. Januar 2026 in Kraft und schafft einen verbindlichen, aber ausdrücklich wirtschaftsfreundlich gestalteten Rechtsrahmen für die Entwicklung und Nutzung von KI.


Worin unterscheidet sich der südkoreanische AI Basic Act vom EU AI Act?

Der AI Basic Act setzt stärker auf Innovationsförderung, Beratung und staatliche Unterstützung, insbesondere in einer mindestens einjährigen Übergangsphase ohne unmittelbare Sanktionen. Der EU AI Act fokussiert im Vergleich stärker auf Verbote, harte Bußgelder und detaillierte Risikoregeln, während Südkorea Regulierung und Industriepolitik in einem integrierten Gesetz bündelt.


Welche Unternehmen sind vom AI Basic Act in Südkorea betroffen?

Betroffen sind alle Unternehmen, die KI-Systeme entwickeln, bereitstellen oder betreiben – unabhängig davon, ob sie aus der Tech-Branche, der Industrie, dem Finanzsektor, dem Gesundheitswesen oder der öffentlichen Verwaltung kommen. Auch internationale Unternehmen, die in Südkorea tätig sind oder dort KI-Lösungen anbieten, müssen ihre Systeme an die neuen Vorgaben anpassen.


Welche Pflichten haben KI-Entwickler und -Betreiber nach dem AI Basic Act?

KI-Entwickler und -Betreiber müssen je nach Risikoklasse Anforderungen an Sicherheit, Qualität und Risikomanagement erfüllen und für bestimmte Systeme Transparenz- und Kennzeichnungspflichten beachten. Dazu gehören unter anderem Dokumentation von Trainingsdaten, Modell- und Qualitätsmetriken, geeignete Fallback-Prozesse sowie gegebenenfalls die Offenlegung von Informationen gegenüber Aufsichtsbehörden.


Welche Auswirkungen hat der AI Basic Act auf die globale KI-Compliance von Unternehmen?

Der AI Basic Act verstärkt die Fragmentierung der weltweiten KI-Regulierung und macht deutlich, dass Unternehmen regionale Compliance-Stacks aufbauen müssen. Globale Player sollten daher ein übergeordnetes KI-Governance-Framework definieren und darauf aufbauend länderspezifische Anforderungen wie den EU AI Act und das koreanische Recht differenziert abbilden.


Wie funktioniert die Übergangsphase ohne Sanktionen in Südkorea konkret?

Ab dem 22. Januar 2026 gilt der AI Basic Act zwar verbindlich, aber die Regierung setzt mindestens ein Jahr lang primär auf Beratung, Schulung und finanzielle Förderung statt auf Strafen. Unternehmen können in dieser Zeit ihre KI-Inventur durchführen, Risikoklassifizierungen etablieren und Governance-Strukturen aufbauen, ohne sofort hohe Bußgelder befürchten zu müssen.


Was sollten Unternehmen jetzt tun, um sich auf den AI Basic Act vorzubereiten?

Unternehmen sollten kurzfristig eine vollständige KI-Inventur durchführen, ihre Anwendungen grob nach Risiko einstufen und eine schlanke, skalierbare KI-Governance-Struktur aufsetzen. Parallel lohnt es sich, staatliche Beratungs- und Förderprogramme in Südkorea aktiv zu nutzen und die eigene globale KI-Compliance-Architektur so zu gestalten, dass sie sowohl den koreanischen als auch den europäischen Anforderungen gerecht wird.