Massachusetts reguliert KI-Deepfakes in Wahlkämpfen: Was Unternehmen jetzt beachten müssen

14.02.2026

Das Repräsentantenhaus von Massachusetts hat Mitte Februar 2026 ein Gesetzespaket verabschiedet, das KI-generierte Deepfakes und irreführende Inhalte in Wahlkämpfen deutlich stärker reguliert. Politische Audio- und Videoanzeigen mit synthetischen Medien müssen künftig klar als KI-generiert gekennzeichnet werden; täuschende Deepfakes und Desinformation kurz vor Wahlen werden verboten und sanktioniert. Für Plattformbetreiber, Adtech-Firmen, Kampagnen-Dienstleister und KI-Anbieter entstehen neue Prüf‑, Kennzeichnungs- und Takedown-Pflichten – mit Signalwirkung weit über Massachusetts hinaus.

Massachusetts reguliert KI-Deepfakes in Wahlkämpfen: Was Unternehmen jetzt beachten müssen


Ausgangslage: Neues Gesetzespaket zu KI und Wahlen

Am 11. Februar 2026 hat das Repräsentantenhaus von Massachusetts ein Gesetzespaket verabschiedet, das den Einsatz von künstlicher Intelligenz in politischen Wahlkämpfen streng reguliert. Kernziel ist es, Wählerinnen und Wähler vor manipulativen Deepfakes und irreführenden KI-Inhalten zu schützen.

Zwei Regelungsstränge stehen im Mittelpunkt:

  1. Kennzeichnungspflicht für KI in politischen Audio- und Videoanzeigen


Politische Werbespots, die „synthetic media“ – also KI-generierte oder manipulierte Audio-/Video-Inhalte – nutzen, müssen künftig klar kennzeichnen, dass KI im Spiel ist. Die Hinweise müssen am Anfang und Ende des Spots erscheinen und auch während der Laufzeit an den KI-genutzten Stellen eingeblendet bzw. ausgesprochen werden. Verstöße können mit Bußgeldern geahndet werden.

  1. Verbot täuschender Kommunikationsformen kurz vor Wahlen


Innerhalb von 90 Tagen vor einer Wahl werden „deceptive communications“ verboten. Hierzu zählen u. a. Inhalte, die:

- einen Kandidaten mit dem Ziel darstellen, dessen Ruf zu schädigen,

- Wähler über Zeit, Ort oder Modalitäten der Stimmabgabe in die Irre führen,

- durch Deepfakes den Eindruck erwecken, eine reale Person habe Aussagen getätigt oder Handlungen vorgenommen, die nie stattgefunden haben.

Satire, Parodie und journalistische Berichterstattung bleiben ausgenommen. Betroffene Kandidaten und Kampagnen erhalten zivilrechtliche Ansprüche, um gegen solche Inhalte vorzugehen.


Geltungsbereich: Wer ist faktisch betroffen?

Formell richtet sich das Paket an politische Akteure und ihre Dienstleister. Praktisch relevant ist es aber für eine deutlich breitere Gruppe von Unternehmen:

  • Plattformbetreiber und Social-Media-Unternehmen mit Nutzern oder Reichweite in Massachusetts

  • Adtech- und Programmatic-Plattformen, die politische Werbung ausspielen

  • Agenturen und Kampagnen-Dienstleister, die für Kandidaten oder Komitees Inhalte produzieren oder distribuieren

  • KI-Anbieter (z. B. Generative-AI-Tools für Bild, Audio und Video), deren Produkte für politische Kommunikation genutzt werden können


Selbst wenn einzelne Firmen nicht explizit adressiert sind, werden Gerichte und Aufsichtsbehörden voraussichtlich erwarten, dass sie angemessene Vorkehrungen treffen, um verbotene Inhalte zu erkennen, zu kennzeichnen oder zu entfernen.


Konkrete Pflichten entlang der Wertschöpfungskette


1. Plattformen und Hosting-Provider

Für Plattformen mit politischer Werbung oder nutzergenerierten Inhalten ergeben sich insbesondere:

  • Kennzeichnungspflichten:


- Einführung oder Anpassung von Policies, die verlangen, dass politische Werbekunden KI-Einsatz offenlegen.

- Technische Möglichkeiten, Kennzeichnungen im Player oder im Anzeigen-Template zu erzwingen.

  • Moderations- und Takedown-Pflichten:


- Prozesse, um gemeldete Deepfakes mit Wahlbezug innerhalb kurzer Fristen zu prüfen.

- Eskalationspfade für Inhalte im 90-Tage-Zeitraum vor Wahlen (höhere Priorität, evtl. „fast track“).

  • Dokumentation und Logging:


- Protokollierung von Meldungen, Entscheidungen und Entfernung von Inhalten zur Absicherung bei Regulatoren und in Gerichtsverfahren.


2. Adtech- und Kampagnen-Dienstleister

Unternehmen, die kreative Assets erstellen, optimieren oder ausspielen, müssen:

  • KI-Nutzung deklarieren:


- Erfassung in den Buchungs- und Asset-Systemen, ob synthetische Medien in einem Spot verwendet werden.

- Automatische Einbindung der gesetzlich geforderten Warnhinweise in Templates.

  • Pre-Campaign-Checks:


- Prüfung, ob der Inhalt innerhalb des 90-Tage-Fensters gegen Täuschungsverbote verstößt (z. B. falsche Wahldaten, manipulierte Aussagen des Gegners).

  • Vertragsanpassungen:


- Zusicherungen der Auftraggeber zur Rechtmäßigkeit der Inhalte.

- Haftungsverteilung und Freistellungsklauseln bei Rechtsverstößen.


3. Anbieter generativer KI

Auch KI-Anbieter geraten mittelbar unter Druck, insbesondere wenn ihre Tools häufig für politische Inhalte eingesetzt werden:

  • Policy-Updates:


- Nutzungsbedingungen, die Deepfakes mit Täuschungsabsicht in Wahlkontexten untersagen.

  • Technische Schutzmechanismen:


- Wasserzeichen oder Metadaten zur Kennzeichnung generierter Inhalte.

- Geofencing oder verstärkte Prüfmechanismen für politische Prompts in Wahlzeiten.

  • Enterprise-Funktionen:


- APIs, mit denen Unternehmenskunden KI-generierte Assets automatisiert labeln und in ihre Compliance-Workflows einbinden können.


Risiko- und Compliance-Perspektive für Unternehmen


Neue Haftungs- und Reputationsrisiken

  • Zivilklagen: Kandidaten können bei Rufschädigung oder Desinformation klagen. Plattformen und Dienstleister geraten als Mitverantwortliche in den Fokus, wenn sie Inhalte verbreiten oder nicht rechtzeitig entfernen.

  • Regulatorischer Druck: Auch ohne formelle Bundesregulierung werden Generalstaatsanwälte und Wahlaufsichtsbehörden auf Basis der neuen Normen gegen Unternehmen vorgehen, die als „Enabler“ von Deepfake-Kampagnen gelten.

  • Reputationsschäden: Wahrgenommene Untätigkeit gegenüber manipulativen KI-Inhalten in Wahlkämpfen kann zu Nutzerabwanderung, Werbekundenverlust und politischem Gegenwind führen.


Praktische Compliance-Maßnahmen

Unternehmen sollten kurzfristig:

  1. Content-Governance überprüfen


- Ergänzung der Richtlinien um klare Definitionen von „synthetic media“, Deepfakes und politischen Inhalten.

- Spezifische Regeln für Wahlzeiträume (z. B. 90 Tage vor relevanten Wahlen) festlegen.

  1. Moderations-Workflows anpassen


- Separate Queues für politisch relevante Inhalte mit höheren Prioritäten.

- Schulung von Review-Teams in Erkennung typischer Deepfake-Muster und Wahl-Desinformation.

  1. Technische Erkennungstools integrieren


- Einsatz von KI-Detektoren für synthetische Medien (Audio- und Videoanalyse).

- Nutzung von Wasserzeichen-Standards, wo verfügbar, sowie Abgleich mit bekannten Fingerprints.

  1. Verträge und AGB aktualisieren


- Explizite Verbote täuschender Deepfakes mit Wahlbezug.

- Klarstellung von Pflichten der Kunden zur Kennzeichnung und zur Bereitstellung korrekter Wahlinformationen.


Internationale Signalwirkung: Warum das auch Europa betrifft

US-Bundesstaaten fungieren häufig als Regulierungslabore für neue Technologien. Bereits heute existieren in anderen Staaten Regelungen gegen Deepfakes in Wahlkämpfen; Massachusetts schließt sich diesem Trend an und schärft insbesondere die Kennzeichnungspflichten.

Für europäische Unternehmen, insbesondere mit US-Geschäft, sind drei Aspekte relevant:

  1. Extraterritoriale Effekte


Plattformen mit Nutzern in Massachusetts werden einheitliche globale Prozesse bevorzugen, statt für jeden Bundesstaat eigene Workflows aufzubauen. Dies erhöht die Wahrscheinlichkeit, dass strengere US-Standards faktisch weltweit gelten.

  1. Vorbildfunktion für EU- und Mitgliedstaatenrecht


Der EU AI Act und nationale Wahlgesetze adressieren bereits heute manipulative KI-Inhalte. Erfahrungen aus Massachusetts können in künftige Konkretisierungen und Leitlinien einfließen – etwa zu Kennzeichnungspflichten oder Haftungsfragen.

  1. Harmonisierung von Governance-Ansätzen


Unternehmen, die frühzeitig robuste Governance-Modelle für synthetische Medien etablieren, reduzieren ihr Risiko, in unterschiedlichen Rechtsräumen nachjustieren zu müssen.


Handlungsempfehlungen für Entscheidungsträger

Für Vorstände, C-Level und Leitungen von Recht, Compliance, Public Policy und IT ergeben sich folgende Prioritäten:

  • Bestandsaufnahme: Wo nutzen wir bereits KI-generierte Medien – intern, in Kampagnen, bei Kundenprojekten? Gibt es politische oder wahlbezogene Use Cases?

  • Risikoklassifizierung: Welche Produkte, Regionen und Kunden sind besonders exposed (z. B. politisches Advertising, Creator-Tools, Social Apps)?

  • Roadmap definieren: Technische Erkennung, Kennzeichnung, Moderation und Reporting als integriertes Programm aufsetzen – nicht als isolierte Einzelmaßnahmen.

  • Stakeholder einbinden: Frühzeitiger Dialog mit Regulatoren, zivilgesellschaftlichen Organisationen und Branchenverbänden, um Standards mitzugestalten.


Unternehmen, die diese Schritte jetzt angehen, können das Massachusetts-Paket als Referenzmodell nutzen – und sich damit strategische Vorteile sichern, bevor ähnliche Anforderungen in weiteren US-Bundesstaaten oder anderen Rechtsordnungen verbindlich werden.


Häufig gestellte Fragen (FAQ)


Was regelt das neue Gesetz in Massachusetts zu KI-Deepfakes in Wahlkämpfen genau?

Das Gesetzespaket vom 11. Februar 2026 in Massachusetts reguliert den Einsatz künstlicher Intelligenz in politischen Wahlkämpfen deutlich strenger. Es führt Kennzeichnungspflichten für KI-generierte Audio- und Videoanzeigen ein und verbietet täuschende Deepfakes sowie irreführende Kommunikationsformen in den 90 Tagen vor einer Wahl.


Wer ist von den neuen KI-Regeln in Massachusetts praktisch betroffen?

Formell richten sich die Vorgaben an politische Akteure und ihre Dienstleister, etwa Kandidaten, Komitees und Kampagnenagenturen. Faktisch sind aber auch Plattformbetreiber, Social-Media-Unternehmen, Adtech-Firmen und Anbieter generativer KI betroffen, wenn ihre Dienste für politische Inhalte in Massachusetts genutzt werden.


Welche konkreten Pflichten entstehen für Plattformen und Adtech-Unternehmen?

Plattformen müssen Kennzeichnungspflichten für KI-Inhalte in politischen Anzeigen umsetzen, Moderations- und Takedown-Prozesse für Deepfakes etablieren und ihre Entscheidungen dokumentieren. Adtech- und Kampagnen-Dienstleister müssen KI-Nutzung in Assets erfassen, Warnhinweise technisch einbinden, Pre-Campaign-Checks durchführen und ihre Verträge um klare Compliance-Klauseln ergänzen.


Wie wirkt sich das Gesetz auf Anbieter generativer KI aus?

Anbieter generativer KI geraten mittelbar unter regulatorischen und reputativen Druck, wenn ihre Tools für politische Kommunikation eingesetzt werden. Sie sollten Nutzungsbedingungen verschärfen, technische Schutzmechanismen wie Wasserzeichen und Metadaten einsetzen und Enterprise-Funktionen bereitstellen, mit denen Kunden KI-generierte Inhalte automatisch kennzeichnen und in Compliance-Workflows integrieren können.


Warum hat die Massachusetts-Regulierung Signalwirkung über den Bundesstaat hinaus?

US-Bundesstaaten fungieren oft als Regulierungslabore, sodass strenge Regeln in einem Staat faktisch Standards für den gesamten Markt setzen können. Plattformen mit Nutzern in Massachusetts werden aus Effizienzgründen meist einheitliche globale Prozesse aufsetzen, wodurch sich diese Anforderungen auf andere US-Bundesstaaten und internationale Märkte, einschließlich Europa, ausdehnen können.


Welche Risiken drohen Unternehmen bei Verstößen gegen die neuen Vorgaben?

Unternehmen müssen mit zivilrechtlichen Klagen, regulatorischem Druck und erheblichen Reputationsschäden rechnen, wenn sie täuschende Deepfakes oder Wahl-Desinformation ermöglichen oder nicht rechtzeitig entfernen. Besonders Plattformen, Adtech-Firmen und Kampagnen-Dienstleister können als Mitverantwortliche in den Fokus von Gerichten und Aufsichtsbehörden geraten.


Was sollten Unternehmen jetzt konkret tun, um compliant zu sein?

Unternehmen sollten ihre Content-Governance anpassen, Wahlzeiträume und synthetische Medien klar definieren und Moderations-Workflows für politische Inhalte priorisieren. Zusätzlich sind der Einsatz technischer Erkennungstools, das Update von Verträgen und AGB sowie eine unternehmensweite Bestandsaufnahme und Risikoklassifizierung zu KI-generierten Medien empfehlenswert.