Südkorea setzt als erstes Land ein umfassendes KI-Grundlagengesetz in Kraft – was der AI Basic Act für Unternehmen weltweit bedeutet
22.01.2026

Am 22. Januar 2026 ist in Südkorea der AI Basic Act in Kraft getreten – das weltweit erste umfassende KI-Grundlagengesetz mit Sicherheits-, Transparenz- und Kennzeichnungspflichten. Der Rechtsrahmen kombiniert Industrieförderung mit strikten Vorgaben zu Watermarking, Risikomanagement und Governance für Hochrisiko- und Frontier-KI. Der Beitrag analysiert die zentralen Pflichten, Grenzwerte und Aufsichtsstrukturen und zeigt, welche unmittelbaren Konsequenzen sich für international tätige Unternehmen, KI-Anbieter und regulierte Branchen ergeben – weit über den koreanischen Markt hinaus.
Südkorea setzt als erstes Land ein umfassendes KI‑Grundlagengesetz in Kraft – was der AI Basic Act für Unternehmen weltweit bedeutet
Am 22. Januar 2026 ist in Südkorea der AI Basic Act in Kraft getreten. Das Gesetz gilt als weltweit erster vollumfänglicher Rechtsrahmen für künstliche Intelligenz, der Sicherheitsregeln, Transparenzpflichten und Kennzeichnungsvorgaben zugleich adressiert. Es greift dabei insbesondere generative und so genannte High‑Impact‑ oder Frontier‑KI‑Systeme auf. Für Unternehmen, die KI‑Dienste in Korea anbieten oder dort entwickeln, verschiebt sich der regulatorische Rahmen abrupt – mit Signalwirkung für EU, USA und weitere Märkte.
Dieser Beitrag ordnet den AI Basic Act ein, beleuchtet die konkreten Pflichten zu Watermarking, Risikomanagement und Governance und zeigt, welche Anpassungen Unternehmen jetzt kurzfristig priorisieren sollten.
Kontext: Was ist der koreanische AI Basic Act und warum ist er bemerkenswert?
Gesetzlicher Rahmen und Zielsetzung
Das Gesetz trägt den Langtitel „Basic Act on the Development of Artificial Intelligence and the Establishment of a Foundation for Trustworthiness“ (häufig verkürzt als AI Basic Act bezeichnet). Es verfolgt zwei Ziele:
Förderung von KI‑Innovation – u. a. durch staatliche Investitionen, Infrastrukturprogramme und eine nationale KI‑Strategie.
Aufbau eines Vertrauensrahmens – über Sicherheitsvorgaben, Transparenzanforderungen und Aufsicht insbesondere für risikoreiche KI‑Anwendungen.
Zentral ist, dass das Gesetz sowohl öffentliche als auch private Anwendungen adressiert und explizit generative Inhalte, Deepfakes und High‑Impact‑Anwendungen einbezieht. Damit geht Südkorea über die meisten bisherigen KI‑Politiken hinaus, die oft nur Teilaspekte oder nur den öffentlichen Sektor regeln.
Governance-Struktur: Nationale KI-Strategie und Aufsicht
Mit dem Inkrafttreten:
wird ein Präsidialrat für die nationale KI‑Strategie als zentrales Entscheidungsgremium etabliert,
erhält ein KI‑Sicherheitsinstitut eine gesetzliche Grundlage, um Bewertungen, Prüfungen und Monitoring zu übernehmen,
ist die Regierung verpflichtet, alle drei Jahre einen Nationalen KI‑Grundplan vorzulegen, der Fördermaßnahmen, Prioritäten und regulatorische Schwerpunkte setzt.
Für Unternehmen bedeutet dies: Die KI‑Regulierung in Korea ist nicht als Einmalgesetz angelegt, sondern als dynamischer Steuerungsrahmen, der regelmäßig nachgeschärft wird.
Zentrale Inhalte: Sicherheits‑ und Kennzeichnungspflichten im Überblick
1. Pflicht zur Kennzeichnung von KI‑Inhalten (Watermarking)
Ein besonders sichtbares Element ist die Pflicht zur Kennzeichnung von KI‑generierten Inhalten. Kernpunkte:
AI‑Generated Content (Texte, Bilder, Videos, Audio), der schwer von realen Inhalten zu unterscheiden ist – etwa Deepfakes –, muss klar als KI‑generiert gekennzeichnet werden.
Die Verpflichtung liegt bei den Anbietern von KI‑Produkten und ‑Diensten, nicht bei Endnutzern. Wer ein generatives Modell oder einen Service bereitstellt, muss sicherstellen, dass (sichtbare oder unsichtbare) Watermarks gesetzt werden.
Medienhäuser, Creator oder Nutzer, die KI‑Inhalte lediglich verwenden oder veröffentlichen, gelten grundsätzlich als Nutzer, nicht als Betreiber, und unterliegen damit nicht direkt den technischen Kennzeichnungspflichten.
Praktische Implikation: Anbieter von Bild‑, Video‑ oder Textgeneratoren müssen ihre Output‑Pipelines anpassen, etwa durch verpflichtende Einbettung von robusten Wasserzeichen oder Metadaten und durch klare Label in der Benutzerschnittstelle.
2. High‑Impact‑ und High‑Risk‑KI: enge, aber strategische Definition
Der AI Basic Act führt die Kategorie „high-impact AI“ bzw. „high-risk“ ein. Darunter fallen Systeme, die
in sicherheitskritischen oder grundrechtsrelevanten Bereichen (u. a. Verkehr, Energie, Gesundheit, Strafverfolgung, Bildung, Finanzdienstleistungen) eingesetzt werden und
Entscheidungen weitgehend ohne menschliche Kontrolle treffen.
Die koreanische Regierung hat im Zuge der Umsetzung deutlich gemacht:
High‑Impact‑Regeln sollen zunächst sehr eng angewendet werden. Aktuell wird im Kern nur autonomes Fahren auf Level 4 und höher als praktischer Anwendungsfall genannt.
In anderen kritischen Domänen (z. B. Kreditvergabe, Beschäftigung, Medizin) greift die Einstufung nur, wenn entscheidende Schritte vollständig automatisiert sind – was in vielen realen Workflows derzeit nicht der Fall ist, weil menschliche Kontrolle vorgesehen ist.
Damit schafft Südkorea formal einen robusten Hochrisiko‑Rahmen, reduziert aber das unmittelbare Anwendungsfeld, um Innovation nicht zu bremsen. Perspektivisch kann der Anwendungsbereich jedoch per Verordnungen und Praxisentscheidungen schnell ausgeweitet werden.
3. Frontier‑ und Hyperscale‑Modelle: Schwelle bei 10^26 FLOPs
Neu und für die internationale Debatte relevant ist der Umgang mit besonders leistungsfähigen Modellen („frontier“ oder „hyperscale“ AI):
Der AI Basic Act sieht spezielle Sicherheits‑ und Governance‑Pflichten für Betreiber sehr großer Modelle vor.
Die Regierung hat den Schwellenwert für solche Systeme bei einem Trainingsaufwand von 10^26 FLOPs (Floating Point Operations) angesetzt.
Nach aktuellem Stand erreichen nur sehr wenige globale Modelle diesen Bereich; koreanische Behörden betonen, dass praktisch kaum ein heute verfügbares System unmittelbar unter diese strengeren Vorgaben fällt.
Damit setzt Südkorea einen global sichtbaren Referenzpunkt für compute‑basierte Regulierung, analog zu Diskussionen in G7‑Prozessen und im US‑Kontext, ohne die aktuelle Modellgeneration flächendeckend in harte Regulierung zu zwingen.
4. Transparenz‑ und Informationspflichten gegenüber Nutzern
Für Unternehmen, die generative oder High‑Impact‑KI einsetzen, gelten u. a. folgende Pflichten:
Vorab‑Information, dass eine Dienstleistung oder ein Produkt KI nutzt;
Hinweise bei KI‑generierten Ergebnissen, insbesondere wenn diese realistisch wirken oder weitreichende Folgen für Nutzerentscheidungen haben (z. B. medizinische Empfehlungen, Kreditentscheidungen);
Berücksichtigung von Kontextfaktoren wie Alter und Verwundbarkeit der Nutzer bei Gestaltung von Hinweisen und Oberflächen.
High‑Impact‑Betreiber müssen zusätzlich zentrale Informationen zu Risikomanagement, Nachvollziehbarkeit, Aufsicht, Dokumentation und Nutzerrechten öffentlich machen, soweit keine Geschäftsgeheimnisse verletzt werden.
5. Extraterritoriale Elemente: Lokale Vertreter für Big Tech
Der AI Basic Act adressiert auch globale Anbieter:
Unternehmen mit KI‑Diensten in Korea, die z. B. einen globalen Umsatz von mind. 1 Billion Won, mind. 10 Milliarden Won Inlandsumsatz mit KI‑Services oder mind. 1 Million tägliche Nutzer in Korea erreichen, müssen einen lokalen Rechtsvertreter benennen.
Genannt werden explizit internationale Anbieter wie OpenAI oder Google.
Damit nähert sich Korea dem Ansatz der DSGVO (Pflicht zu lokalen Vertretern) an und signalisiert: Marktzugang ist an Compliance geknüpft.
6. Sanktionsrahmen und Übergangsphase
Verstöße können mit Geldbußen bis 30 Millionen Won geahndet werden.
Die Regierung hat eine Ein‑Jahres‑Übergangsfrist angekündigt, in der der Fokus auf Aufklärung und Unterstützung liegt; formale Sanktionen sollen in dieser Zeit zurückhaltend eingesetzt werden.
Ein „AI Basic Act Support Desk“ dient als zentrale Anlaufstelle für Unternehmen, mit Beratung, Beispielsammlungen und interaktiver Klärung von Zweifelsfragen.
Detaillierte Analyse: Auswirkungen, Risiken und Chancen
Direkte Auswirkungen auf KI‑Anbieter und ‑Integratoren
Für Unternehmen, die KI‑Modelle oder ‑Plattformen bereitstellen, ergeben sich kurzfristig drei zentrale Handlungsfelder:
Output‑Kontrolle und Watermarking
- Technische Implementierung robuster Wasserzeichen oder Metadaten in generativen Pipelines.
- Anpassung von APIs und SDKs, damit nachgelagerte Dienste die Kennzeichnung beibehalten können.
- Etablierung von Test‑ und Monitoring‑Routinen, um die Integrität der Kennzeichnung sicherzustellen.
Risikoklassifikation von Anwendungsfällen
- Systematische Zuordnung bestehender und geplanter KI‑Use‑Cases zu den koreanischen Kategorien (u. a. High‑Impact, generativ, Standardanwendung).
- Spezielle Bewertung von autonomen Funktionen (z. B. im Mobilitäts‑ oder Robotikbereich), ob eine Einstufung als High‑Impact droht.
Dokumentation und Governance
- Aufbau oder Anpassung von KI‑Risikoregister, Modellkarten, Daten‑ und Trainingsdokumentation.
- Definition von Rollen, Verantwortlichkeiten und Eskalationswegen für KI‑Verantwortliche.
Indirekte globale Wirkung: Referenzrahmen für EU, USA, Asien
Auch wenn Korea kein globaler Megamarkt wie EU oder USA ist, wirkt der AI Basic Act als früher Realtest für KI‑Regulierung:
Für die EU bietet er ein Vergleichsmodell zum EU AI Act. Während der EU‑Ansatz stärker an konkreten Anwendungsdomänen und Risikostufen orientiert ist, kombiniert Korea diesen mit Compute‑Schwellen und expliziten Content‑Kennzeichnungspflichten.
In den USA besteht bisher kein umfassendes Bundesgesetz, sondern ein Flickenteppich aus Leitlinien und Sektorregulierung. Der koreanische Ansatz erhöht den internationalen Erwartungsdruck, auch dort über kohärente Mindeststandards zu diskutieren.
Für andere Staaten in Asien‑Pazifik (z. B. Singapur, Japan, Australien) entsteht ein regionale Benchmark, an der sich eigene Strategien ausrichten oder abgrenzen können.
Unternehmen mit globalem Footprint können den koreanischen Rahmen als Pilot‑Jurisdiktion nutzen: Wer hier robuste Governance implementiert, schafft die Basis, um später auch EU‑, UK‑ oder US‑Vorgaben schneller zu erfüllen.
Risiken: Fragmentierung und technische Komplexität
Trotz der Chancen birgt der AI Basic Act Risiken für Unternehmen:
Regulatorische Fragmentierung: Die spezifischen koreanischen Schwellenwerte (z. B. 10^26 FLOPs, enge High‑Impact‑Definition) können von EU‑ oder US‑Regeln abweichen. Ein rein lokal optimierter Ansatz führt zu steigender Komplexität in globalen Produkt‑ und Compliance‑Roadmaps.
Technische Heterogenität bei Watermarks: Wenn verschiedene Rechtsräume unterschiedliche Formate oder Mindeststandards für KI‑Kennzeichnung einführen, müssen Anbieter mehrere parallele Mechanismen pflegen – mit Implikationen für Performance, Robustheit und Nutzererlebnis.
Reputations‑ und Haftungsrisiken: Frühphasige Regelwerke sind naturgemäß unklar. Fehlinterpretationen oder unzureichende interne Governance können schnell in medienwirksame Fälle von Non‑Compliance münden.
Chancen: Vertrauensvorsprung und Governance als Wettbewerbsvorteil
Umgekehrt eröffnet das Gesetz auch strategische Optionen:
Differenzierung über Vertrauenswürdigkeit: Anbieter, die früh transparente Dokumentation, klare Kennzeichnungen und robuste Safety‑Prozesse etablieren, können dies aktiv in B2B‑Verhandlungen und öffentlichen Ausschreibungen nutzen.
Standardisierung von KI‑Governance: Der AI Basic Act zwingt Unternehmen, ihre KI‑Governance zu systematisieren. Diese Strukturen können für interne Effizienz (einheitliche Standards, Auditfähigkeit) ebenso wertstiftend sein wie für externe Compliance.
Früher Lernvorsprung: Erfahrungen mit Umsetzung, Audits und Behördenkommunikation in Korea lassen sich auf andere Märkte übertragen, sobald dort vergleichbare Vorgaben greifen.
Beispiele und Szenarien aus der Unternehmenspraxis
Beispiel 1: Globaler Anbieter eines generativen Bild‑ und Video‑Dienstes
Ein US‑basiertes Unternehmen betreibt eine populäre Plattform für KI‑generierte Bilder und Videos, die auch in Korea Millionen Nutzer hat.
Konsequenzen des AI Basic Act:
Der Anbieter überschreitet die koreanischen Schwellen zu Umsatz und Nutzerzahlen und muss einen lokalen Vertreter benennen.
Die Output‑Pipelines müssen so angepasst werden, dass alle generierten Medien mit robusten Wasserzeichen versehen werden. Das gilt auch für API‑basierte Nutzung durch Dritte.
Die Plattformoberfläche in Korea muss klare Hinweise anzeigen, wenn Inhalte KI‑generiert sind; bei Deepfakes oder realitätsnahen Videos sind besonders deutliche Label erforderlich.
Interne Prozesse müssen dokumentieren, welche Modelle, Daten und Filter genutzt werden und welche Maßnahmen gegen Missbrauch existieren.
Strategische Option: Das Unternehmen könnte die koreanischen Vorgaben als globalen Mindeststandard implementieren, um nicht mehrere divergierende Compliance‑Linien pflegen zu müssen.
Beispiel 2: Koreanische Bank mit KI‑gestützter Kreditprüfung
Eine große Bank in Korea nutzt ein KI‑System zur Bewertung von Kreditanträgen. Formell entscheidet jedoch weiterhin ein Sachbearbeiter final über Bewilligung oder Ablehnung.
Konsequenzen:
Nach aktueller Lesart fällt diese Anwendung nicht in die strenge High‑Impact‑Kategorie, da ein Mensch in die endgültige Entscheidung eingebunden ist.
Dennoch greifen Transparenzanforderungen: Kunden müssen darüber informiert werden, dass KI im Prüfprozess eingesetzt wird.
Die Bank sollte interne Dokumentation zu Daten, Modellen, Bias‑Prüfungen und Governance erstellen, um bei künftiger Ausweitung der High‑Impact‑Definition vorbereitet zu sein.
Strategische Option: Die Bank kann frühzeitig interne Fairness‑ und Erklärbarkeitsstandards definieren und sich so gegenüber Aufsicht, Öffentlichkeit und Partnern als Vorreiter positionieren.
Beispiel 3: Automobilhersteller mit Level‑4‑Robotaxi‑Projekt
Ein globaler OEM plant, in einer koreanischen Stadt einen Robotaxi‑Dienst mit Level‑4‑Autonomie aufzubauen.
Konsequenzen:
Das System fällt klar in den Anwendungsbereich von High‑Impact‑AI.
Der Hersteller muss einen umfassenden Risikomanagement‑Prozess, kontinuierliches Safety‑Monitoring, Logging und Audits implementieren.
Nutzer müssen ausdrücklich darauf hingewiesen werden, dass hochautomatisierte KI‑Systeme das Fahrzeug steuern.
Abhängig von Architektur und Trainingsaufwand können zusätzliche Pflichten als Betreiber eines Frontier‑Modells relevant werden.
Strategische Option: Durch Kooperation mit dem koreanischen KI‑Sicherheitsinstitut kann der Hersteller gemeinsame Prüf‑ und Zertifizierungsprozesse entwickeln, die sich später als Blaupause für andere Märkte eignen.
Geschäftliche Relevanz: Was Unternehmen jetzt tun sollten
1. Korea‑Exposure und Use‑Case‑Landkarte schaffen
Unternehmen sollten kurzfristig prüfen:
Welche KI‑Dienste oder ‑Produkte werden in Korea angeboten? (inkl. White‑Label‑ und OEM‑Lösungen)
Welche Units entwickeln KI in Korea, auch wenn das Produkt global ausgerollt wird?
Welche Anwendungsfälle könnten unter generative oder High‑Impact‑Definitionen fallen (Mobilität, Gesundheit, Finanzen, Medien, Bildung etc.)?
Ergebnis sollte eine Use‑Case‑Landkarte sein, die speziell für Korea die relevanten Systeme und Verantwortlichkeiten identifiziert.
2. Mindest‑KI‑Governance etablieren oder schärfen
Auf Basis dieser Landkarte sollten Unternehmen eine Kern‑Governancestruktur definieren oder anpassen:
Benennung einer KI‑verantwortlichen Stelle (z. B. Head of AI Governance, AI Risk Officer).
Einrichtung eines KI‑Risikoregisters mit Beschreibung, Zweck, Datenquellen, Modellen, Risiken und Kontrollen.
Festlegung von Policy‑Standards für Datenqualität, Logging, Monitoring, Incident‑Response und Nutzerinformation.
Wo bereits EU‑AI‑Act‑Vorbereitungen laufen, bietet es sich an, Synergien zu nutzen und koreanische Anforderungen in ein globales Zielbild zu integrieren.
3. Technische Roadmap für Watermarking und Transparenz
Technik‑ und Produktteams sollten eine Roadmap erarbeiten für:
Auswahl und Implementierung von Watermarking‑Technologien (z. B. robuste Bild‑/Video‑Wasserzeichen, Text‑Marker, Metadatenstandards),
Anpassung von UI/UX zur klaren Kennzeichnung von KI‑Inhalten,
Aufbau von Prüf‑ und Monitoring‑Pipelines, um Kennzeichnungspflichten laufend zu erfüllen.
Wichtig ist, Watermarking nicht als rein juristische Pflicht zu sehen, sondern als Bestandteil eines umfassenden Trust‑Frameworks, das auch in anderen Jurisdiktionen anschlussfähig ist.
4. Dialog mit koreanischen Behörden und Branchenverbänden suchen
Da viele Details der praktischen Umsetzung erst im Zusammenspiel von Aufsicht und Marktteilnehmern entstehen, ist proaktiver Dialog zentral:
Teilnahme an Konsultationen, Branchenrunden, Pilotprojekten.
Nutzung des AI Basic Act Support Desk, um strittige Klassifikations‑ oder Designfragen früh zu klären.
Einbindung koreanischer Rechts‑ und Compliance‑Experten in globale Projektteams.
5. Globale Harmonisierung früh mitdenken
Schließlich sollten Unternehmen vermeiden, Korea als isolierten Sonderfall zu behandeln. Stattdessen empfiehlt sich:
ein „Global Baseline“-Framework für KI‑Sicherheit, Transparenz und Governance, das die Anforderungen in Korea, der EU und weiteren Kernmärkten abdeckt;
bewusste Entscheidung, ob koreanische Standards (z. B. Watermarking) zunächst nur lokal oder als globaler Mindeststandard eingeführt werden;
Monitoring geplanter Regelwerke (EU AI Act, US‑Initiativen, andere asiatische Staaten), um Konvergenzen aktiv zu nutzen, statt reaktiv Fragmentierung managen zu müssen.
Fazit: Südkorea als Frühindikator für die nächste Phase der KI‑Regulierung
Mit dem AI Basic Act betritt Südkorea regulatorisches Neuland. Das Gesetz verbindet Industriepolitik, Sicherheitsarchitektur und Content‑Governance in einem Rahmen – mit enger, aber bewusst gewählter Erst‑Anwendung. Für Unternehmen ist es weniger eine zusätzliche Checkliste als ein Weckruf, KI‑Governance strategisch und global konsistent zu denken.
Kern‑Takeaways für Unternehmen:
Konkreter Rechtsrahmen: Südkorea ist das erste Land mit einem vollumfänglichen KI‑Grundlagengesetz, das Förderung, Sicherheit und Transparenz in einem Rahmen bündelt und unmittelbar gilt.
Watermarking als Pflicht: Anbieter generativer KI‑Dienste müssen KI‑Inhalte technisch kennzeichnen und Nutzer klar informieren – ein wahrscheinlicher Vorläufer globaler Standards.
High‑Impact eng, aber zukunftsorientiert: Aktuell sind faktisch nur wenige Anwendungen (v. a. hochautonomes Fahren) streng reguliert, die Strukturen für spätere Ausweitung sind jedoch gelegt.
Frontier‑Modelle im Blick: Compute‑basierte Schwellenwerte (10^26 FLOPs) signalisieren, dass besonders leistungsfähige Modelle künftig unter spezifische Aufsicht fallen werden.
Handlungsdruck für globale Player: KI‑Anbieter mit koreanischer Präsenz sollten jetzt Use‑Cases kartieren, Governance‑Strukturen schärfen und Watermarking‑Roadmaps definieren – idealerweise im Rahmen eines globalen KI‑Compliance‑Frameworks.
Häufig gestellte Fragen (FAQ)
Was ist der koreanische AI Basic Act und warum ist er für Unternehmen weltweit relevant?
Der AI Basic Act ist das erste umfassende KI-Grundlagengesetz weltweit und trat am 22. Januar 2026 in Südkorea in Kraft. Er verbindet Innovationsförderung mit strengen Vorgaben zu Sicherheit, Transparenz und Kennzeichnung und setzt damit einen Referenzrahmen, an dem sich auch EU, USA und andere Länder orientieren können.
Wie funktioniert die Kennzeichnungspflicht (Watermarking) für KI-generierte Inhalte nach dem AI Basic Act?
Anbieter generativer KI-Systeme müssen sicherstellen, dass schwer von realen Inhalten zu unterscheidende KI-Inhalte technisch gekennzeichnet werden, etwa durch Wasserzeichen oder Metadaten. Die Pflicht trifft die Betreiber der KI-Modelle und -Dienste, nicht die Endnutzer oder Medienhäuser, die diese Inhalte lediglich verwenden oder veröffentlichen.
Welche KI-Systeme gelten nach dem AI Basic Act als High-Impact- oder High-Risk-Anwendungen?
High-Impact-KI umfasst Systeme in besonders sensiblen Bereichen wie Verkehr, Energie, Gesundheit, Strafverfolgung, Bildung oder Finanzdienstleistungen, wenn Entscheidungen weitgehend ohne menschliche Kontrolle getroffen werden. In der Anfangsphase werden praktisch vor allem hochautonome Fahrfunktionen auf Level 4 und höher erfasst, andere Bereiche nur bei weitgehend vollautomatisierten Entscheidungen.
Was ist der Unterschied zwischen High-Impact-KI und Frontier- bzw. Hyperscale-Modellen im AI Basic Act?
High-Impact-KI bezieht sich auf konkrete Einsatzbereiche mit hohem Sicherheits- oder Grundrechtsrisiko, zum Beispiel Robotaxis oder vollautomatisierte Entscheidungen im Finanz- oder Gesundheitssektor. Frontier- bzw. Hyperscale-Modelle werden dagegen über ihre Rechenleistung definiert: Ab einem Trainingsaufwand von 10^26 FLOPs gelten zusätzliche Sicherheits- und Governance-Pflichten, unabhängig vom konkreten Einsatzfeld.
Welche Pflichten treffen internationale KI-Anbieter, die Dienste in Korea bereitstellen?
Große KI-Anbieter mit erheblichem Umsatz oder mindestens einer Million täglicher Nutzer in Korea müssen einen lokalen Rechtsvertreter benennen. Zudem müssen sie Transparenz- und Informationspflichten erfüllen, ihre Output-Pipelines für Watermarking anpassen und – je nach Risikoprofil der Anwendungen – erweitertes Risikomanagement, Dokumentation und Governance-Strukturen implementieren.
Welche unmittelbaren Auswirkungen hat der AI Basic Act auf Unternehmen, die KI einsetzen oder integrieren?
Unternehmen müssen ihre KI-Use-Cases systematisch erfassen, Risikokategorien (generativ, High-Impact etc.) zuordnen und technische sowie organisatorische Maßnahmen anpassen. Dazu gehören unter anderem Watermarking, Nutzerhinweise, KI-Risikoregister, klare Verantwortlichkeiten und gegebenenfalls Safety- und Monitoringprozesse für Hochrisikoanwendungen.
Was sollten global agierende Unternehmen jetzt konkret tun, um den AI Basic Act zu erfüllen und sich gleichzeitig strategisch aufzustellen?
Unternehmen sollten zunächst ihr Korea-Exposure und alle relevanten KI-Anwendungsfälle kartieren und darauf aufbauend eine Mindest-KI-Governance etablieren oder schärfen. Parallel empfiehlt sich eine technische Roadmap für Watermarking und Transparenz, der proaktive Dialog mit koreanischen Behörden sowie die Entwicklung eines globalen Baseline-Frameworks, das koreanische, europäische und weitere künftige KI-Vorgaben integriert.