Oklahoma verschärft Haftung für KI-Bilder: Was House Bill 3299 für Unternehmen bedeutet

18.02.2026

In Oklahoma hat der Justizausschuss des Repräsentantenhauses House Bill 3299 einstimmig vorangebracht. Der Entwurf stellt die Erstellung und Verbreitung von KI-generierten Inhalten unter Strafe, wenn Name, Bild, Stimme oder sonstige Ähnlichkeitsmerkmale einer realen Person ohne schriftliche Einwilligung und mit Schädigungsabsicht genutzt werden. Für Unternehmen in Werbung, Medien, Plattformbetrieb und KI-Tooling signalisiert dies eine neue Welle haftungsrelevanter US-Bundesstaatenregulierung rund um Deepfakes und synthetische Medien – mit direkten Folgen für Compliance, Produktdesign, Verträge und internationale Governance-Strukturen.

Oklahoma verschärft Haftung für KI-Bilder: Was House Bill 3299 für Unternehmen bedeutet


Ausgangslage: Neuer Tiefpunkt für Deepfakes – und politische Reaktion

Der Bundesstaat Oklahoma treibt mit House Bill (HB) 3299 ein Gesetz voran, das die Erstellung und Verbreitung KI‑generierter Inhalte mit dem Abbild realer Personen ohne Einwilligung unter Strafe stellt. Der Strafrechtsausschuss des Repräsentantenhauses hat den Entwurf am 17. Februar 2026 einstimmig gebilligt; als nächstes folgt das Plenum des Hauses.

Kernproblem sind Deepfakes und andere synthetische Medien, die täuschend echt Namen, Bild, Stimme oder sonstige Ähnlichkeitsmerkmale realer Personen nutzen, um zu täuschen, zu schädigen oder zu erpressen. Oklahoma hatte bereits Regelungen zu KI‑Revenge‑Porn und politischer Werbung, HB 3299 weitet den Ansatz jetzt deutlich auf allgemeine Persönlichkeitsschutz‑ und Betrugsszenarien aus.


Zentrale Inhalte von HB 3299


Tatbestand und Schwellenwerte

HB 3299 adressiert sowohl Erstellung („creation“) als auch Verbreitung („dissemination“) von Medien, die eine reale Person identifizierbar darstellen, wenn:

  • Name, Bild, Stimme oder sonstige Merkmale einer Person genutzt werden,

  • keine schriftliche Einwilligung vorliegt und

  • eine Schädigungsabsicht („intent to cause harm“) besteht.


Die Straftat ist grundsätzlich ein Vergehen (Misdemeanor) und kann zum Verbrechen (Felony) hochgestuft werden, wenn

  • ein finanzieller Schaden von mehr als 25.000 US‑Dollar entsteht oder

  • die Inhalte für Erpressung, Nötigung oder Erpressungsversuche genutzt werden.


Besondere Regeln für politische Werbung

Der Entwurf enthält spezifische Transparenzpflichten für Wahlwerbung und TV‑Spots:

  • Wird KI genutzt, um Name, Bild, Stimme oder Ähnlichkeit eines Kandidaten innerhalb von 45 Tagen vor einer Wahl zu bearbeiten oder zu generieren,

  • muss offengelegt werden, dass entsprechende Digitalisierung/AI verwendet wurde.


Damit verschärft Oklahoma die bereits bestehende US‑Tendenz, KI‑gestützte politische Kommunikation als besonderen Risikobereich zu regulieren.


Ausnahmen: Presse, Kommentar, Satire

Wesentlich für Medien‑ und Kreativunternehmen: HB 3299 sieht Ausnahmen vor, u. a. für

  • Nachrichtenberichterstattung,

  • Kommentar und Meinungsäußerung,

  • Satire und Parodie.


Die Reichweite dieser Ausnahmen wird in der Praxis entscheidend sein, um Konflikte zwischen Strafrecht, Pressefreiheit und künstlerischer Freiheit zu minimieren.


Einordnung im Kontext der US‑Regulierungswelle

Oklahoma ist kein Einzelfall, sondern Teil eines schnell wachsenden Netzes staatlicher und bundesweiter Regeln zu KI‑generierten Bildern:

  • Oklahoma hat bereits 2025 mit HB 1364 AI‑generierte Rachepornos unter Strafe gestellt und damit nicht‑einvernehmliche sexuelle Deepfakes erfasst.

  • Auf Bundesebene adressiert der TAKE IT DOWN Act nicht‑einvernehmliche intime Bildmanipulationen und deren Verbreitung auf Plattformen.

  • Parallel wird der NO FAKES Act im US‑Senat diskutiert, der ein bundesweites „Right of Publicity“ für digitale Repliken etablieren soll.


HB 3299 erweitert dieses Fragmentbild, indem es die allgemeine nicht‑sexuelle Nutzung von KI‑Abbildern realer Personen mit Schädigungsabsicht in den Fokus rückt. Für Unternehmen ist entscheidend: Die strengsten Bundesstaatsregeln werden faktisch zum unternehmensweiten Mindeststandard.


Auswirkungen auf verschiedene Unternehmensmodelle


1. Werbe‑ und Medienagenturen

Agenturen, Produktionsfirmen und Post‑Production‑Studios müssen damit rechnen, dass künftig jede KI‑gestützte Bearbeitung realer Personen folgende Anforderungen erfüllen sollte:

  • Dokumentierte Einwilligungen (Model Releases), die explizit die Nutzung von KI‑Tools und synthetischen Varianten (Stimme, Bild, Video) umfassen.

  • KI‑Nutzungsprotokolle in der Postproduktion: Wer hat wann welche KI‑Funktion verwendet, um später nachweisen zu können, dass keine Schädigungsabsicht vorlag.

  • Spezielle Prüfpfade für Wahlwerbung: Innerhalb der letzten 45 Tage vor einer Wahl in Oklahoma sollten


- Deepfake‑ähnliche Effekte für Kandidaten vermieden oder

- mit klaren, prominenten Hinweisen auf KI‑Nutzung versehen werden.

Praxisbeispiel: Eine Agentur erstellt für eine nationale Kampagne einen Spot mit einem Schauspieler, dessen Gesicht mittels KI leicht verjüngt wird. Läuft der Spot in Oklahoma, sollte im Vertrag ausdrücklich geregelt sein, dass

  • die Person der KI‑Verjüngung zustimmt und

  • der Spot nicht so eingesetzt wird, dass er als irreführende politische Werbung eingeordnet werden kann.


2. Social‑Media‑Plattformen und UGC‑Dienste

Plattformbetreiber geraten in den Fokus, weil sie Verbreitungsvektor für Deepfakes sind. HB 3299 zielt formal auf die Ersteller, doch Plattformen müssen mit:

  • Notice‑and‑Takedown‑Workflows für Deepfakes rechnen,

  • gesteigerten Erwartungen an Erkennung und Moderation von KI‑Images.


Konkrete Maßnahmen:

  • Einführung von Meldekategorien wie „AI‑Deepfake / unerlaubte Bildnutzung“ in Abuse‑Formularen.

  • Aufbau interner Risikokategorien (z. B. Wahlkampf‑Kontext, Nacktheit, hohe Viralität), die priorisierte Moderation auslösen.

  • Prüfung, ob Verwendung von KI‑Wasserzeichen, Hashing und Herkunfts‑Metadaten (z. B. C2PA‑Standards) technisch eingebunden werden kann.


Für global operierende Plattformen verschärft HB 3299 den Trend, Oklahoma‑ähnliche Regeln als weltweiten Default zu behandeln, um Fragmentierung zu vermeiden.


3. Anbieter von KI‑Bild‑ und Videotools

Unternehmen, die generative KI‑Dienste anbieten (API oder SaaS), müssen ihr Produkt‑ und Compliance‑Design anpassen:

  • Policy‑Layer: Nutzungsbedingungen sollten die Erstellung von Inhalten mit realen Personen ohne Einwilligung und mit Schädigungsabsicht klar verbieten und auf mögliche strafrechtliche Konsequenzen hinweisen.

  • Technische Schranken:


- Erkennung hochprominenter Personen (Celebrities, Politiker) und ggf. Blockierung entsprechender Prompts,

- Limits oder Prüfprozesse für Uploads echter Porträts als Trainingsgrundlage für personalisierte Modelle.

  • Audit‑Fähigkeit: Logging von Prompt‑Historien und generierten Assets (unter Beachtung des Datenschutzrechts), um auf Ermittlungsanfragen reagieren zu können.


Use Case: Ein B2B‑Anbieter für Marketing‑Avatare erlaubt es Kunden, aus einem Selfie einen „digitalen Zwilling“ zu erzeugen. Für Kunden in oder mit Bezug zu Oklahoma braucht es mindestens:

  • einen Explizit‑Consent‑Flow für die betroffene Person,

  • Vertragsklauseln, dass der Kunde keine Bilder Dritter hochlädt,

  • Mechanismen, um Accounts bei Verdachtsfällen schnell zu sperren.


4. Multistate‑ und internationale Unternehmen

Für Unternehmen, die sowohl in den USA als auch in Europa aktiv sind, ergibt sich eine doppelte Compliance‑Linse:

  • In den USA: Mosaik aus Bundesstaatsrecht (Oklahoma, Texas u. a.) plus federal Acts/Entwürfe (TAKE IT DOWN, NO FAKES Act).

  • In der EU / Deutschland: Datenschutz‑, Urheber‑, Persönlichkeits‑ und Medienrecht (z. B. DSGVO, KunstUrhG, strafbare Bildverbreitung).


Empfehlung aus Governance‑Sicht:

  • Aufbau eines „AI Content Risk Framework“, das die strengsten Anforderungen (z. B. Oklahoma bei Deepfakes, EU‑Datenschutz bei biometrischen Daten) als globalen Standard definiert.

  • Einrichtung eines zentralen Gremiums (AI Governance Board) mit Legal, Compliance, IT‑Security und Product Management, das KI‑Bildprozesse freigibt.


Konkrete To‑dos für Unternehmen in den nächsten 3–6 Monaten

  1. Inventory: Erfassen, wo im Unternehmen heute KI‑generierte Bilder, Videos oder Stimmen realer Personen genutzt werden (Marketing, HR, interne Schulungen, Chatbots, Avatare).

  2. Policy‑Update: Ergänzung von Richtlinien um klare Verbote nicht‑einvernehmlicher KI‑Repliken und Anforderungen an Einwilligung, Transparenz und Kennzeichnung.

  3. Vertragsanpassungen:


- Model‑ und Influencer‑Verträge um KI‑Nutzungen ergänzen,

- Agentur‑ und Dienstleisterverträge mit Garantien zur Rechtmäßigkeit von KI‑Assets versehen.

  1. Technische Schutzmaßnahmen: Prüfung von


- Wasserzeichen‑/C2PA‑Implementierungen,

- Deepfake‑Erkennung in Upload‑Pipelines,

- Logging und Audit‑Funktionen.

  1. Training & Awareness: Schulungen für Marketing, Produktteams und Moderationsteams zu Risiken und Pflichten rund um Deepfakes, insbesondere mit Blick auf US‑Wahljahre.


Fazit: HB 3299 als Signalgesetz für KI‑Bildhaftung

HB 3299 ist noch nicht in Kraft, setzt aber ein deutliches Signal: Nicht‑einvernehmliche Nutzung realer Identitäten in KI‑Bildern wird in den USA zunehmend strafrechtlich sanktioniert. Für Unternehmen bedeutet dies, KI‑gestützte Bild‑ und Videoprozesse nicht nur ethisch, sondern strafrechts‑ und haftungsfest zu gestalten.

Wer heute in saubere Einwilligungs‑Workflows, technische Schutzmechanismen und klare AI‑Content‑Policies investiert, reduziert nicht nur das Risiko in Oklahoma, sondern schafft sich einen zukunftsfesten Standard für weitere US‑Staaten und internationale Regulierungsschritte.


Häufig gestellte Fragen (FAQ)


Was regelt House Bill 3299 in Oklahoma konkret im Umgang mit KI-generierten Bildern?

House Bill 3299 stellt die Erstellung und Verbreitung von KI-generierten Inhalten unter Strafe, wenn Name, Bild, Stimme oder andere Ähnlichkeitsmerkmale einer realen Person ohne schriftliche Einwilligung und mit Schädigungsabsicht genutzt werden. Der Tatbestand kann von einem Vergehen zu einem Verbrechen hochgestuft werden, wenn hohe finanzielle Schäden entstehen oder Erpressung im Spiel ist.


Wie funktioniert die Haftung für Unternehmen unter HB 3299 bei Deepfakes und synthetischen Medien?

Formal richtet sich HB 3299 zwar primär gegen Ersteller und Verbreiter schädlicher Deepfakes, faktisch geraten aber auch Unternehmen in Werbung, Medien, Plattformbetrieb und KI-Tooling in die Pflicht. Sie müssen Einwilligungen dokumentieren, technische und organisatorische Schutzmaßnahmen etablieren und im Streitfall nachweisen können, dass keine Schädigungsabsicht vorlag und Prozesse compliant ausgestaltet sind.


Welche Auswirkungen hat HB 3299 auf politische Werbung und Wahlkampagnen mit KI-Inhalten?

Für Wahlwerbung und TV-Spots, die innerhalb von 45 Tagen vor einer Wahl KI zur Bearbeitung oder Generierung von Name, Bild oder Stimme eines Kandidaten einsetzen, gelten besondere Transparenzpflichten. Unternehmen müssen in diesem Zeitraum klar kennzeichnen, wenn KI verwendet wurde, und riskante Deepfake-Effekte für Kandidaten möglichst vermeiden.


Welche Ausnahmen von der Strafbarkeit sieht HB 3299 für Medien, Kommentar und Satire vor?

Der Entwurf enthält Ausnahmen für Nachrichtenberichterstattung, Kommentare, Meinungsäußerungen sowie Satire und Parodie. Diese Privilegierungen sollen einen Ausgleich zwischen Schutz vor Missbrauch durch Deepfakes und der Wahrung von Pressefreiheit und künstlerischer Freiheit schaffen, ihre genaue Reichweite wird sich jedoch erst in der Praxis zeigen.


Wie fügt sich HB 3299 in die breitere US-Regulierungslandschaft zu KI und Deepfakes ein?

HB 3299 ergänzt ein wachsendes Mosaik aus bundesstaatlichen und bundesweiten Regeln, etwa zu AI-generierten Rachepornos oder digitalen Repliken prominenter Personen. Für Unternehmen bedeutet dies, dass sich die strengsten Bundesstaatsregeln wie die aus Oklahoma faktisch zu unternehmensweiten Mindeststandards entwickeln, insbesondere bei der Nutzung realer Identitäten in KI-Inhalten.


Worin unterscheidet sich HB 3299 von früheren Regelungen wie solchen zu Revenge Porn oder intimen Deepfakes?

Frühere Regelungen in Oklahoma fokussierten primär auf nicht-einvernehmliche sexuelle Deepfakes und Revenge Porn. HB 3299 geht deutlich weiter, indem es auch nicht-sexuelle, aber schädigende Nutzungen von KI-Abbildern realer Personen und Betrugsszenarien ins Visier nimmt und damit den allgemeinen Persönlichkeitsschutz in den Mittelpunkt rückt.


Was sollten Unternehmen in den nächsten 3–6 Monaten konkret tun, um auf HB 3299 vorbereitet zu sein?

Unternehmen sollten ein Inventory aller KI-basierten Bild-, Video- und Stimmnutzungen anlegen, Richtlinien und Verträge um KI-spezifische Einwilligungen und Verbote ergänzen und technische Schutzmaßnahmen wie Wasserzeichen, Deepfake-Erkennung sowie Logging implementieren. Parallel sind Schulungen für Marketing, Produktteams und Moderationsteams erforderlich, um Risiken und Pflichten rund um Deepfakes und Wahljahre zu verstehen und umzusetzen.