
In einem entscheidenden Schritt, der einen neuen Präzedenzfall für den digitalen Datenschutz im Zeitalter der generativen KI (Generative AI) schafft, haben Gesetzgeber in Missouri ein Gesetz verabschiedet, das die Erstellung und Verbreitung von nicht konsensuellen, KI-generierten sexuellen Bildinhalten (Non-Consensual AI-Generated Sexual Imagery, NCSI) unter Strafe stellt. Unter dem Namen „Taylor Swift Act“ schafft der Senatsentwurf 1117 (Senate Bill 1117) schwere strafrechtliche Sanktionen und erhebliche zivilrechtliche Möglichkeiten für Opfer von Deepfake-Pornografie. Diese Maßnahme auf Bundesstaatsebene steht in krassem Gegensatz zum jüngsten Zögern der internationalen Gemeinschaft, auf dem Global AI Pledge-Gipfel in dieser Woche verbindliche Sicherheitsverpflichtungen einzugehen.
Die Gesetzgebung, die von Senator Travis Fitzwater (R-Holts Summit) unterstützt wurde, wurde durch die virale Verbreitung expliziter, KI-generierter Bilder des Popstars Taylor Swift Anfang 2024 katalysiert. Während der Vorfall weltweite Empörung auslöste und die Verletzlichkeit selbst der berühmtesten Persönlichkeiten der Welt verdeutlichte, legte er ein eklatantes rechtliches Vakuum offen: Für gewöhnliche Bürger gab es kaum bis gar keine Handhabe gegen die Schöpfer solcher digitalen Verstöße.
Zwei Jahre später hat Missouri diese Lücke geschlossen. Das neue Gesetz klassifiziert das nicht konsensuelle Teilen von „intimen digitalen Darstellungen“ als ein Verbrechen (Felony) und geht damit über das Flickwerk von Belästigungsgesetzen hinaus, die zuvor Online-Missbrauch regelten.
„Es geht darum, unsere Statuten zu modernisieren, um sicherzustellen, dass es einen rechtmäßigen Rückgriff gibt, wenn Menschen durch digitale Darstellungen bloßgestellt werden“, erklärte Senator Fitzwater nach der Verabschiedung des Gesetzes. „Wir definieren Konsequenzen für die Schädigung des Bildes einer Person in einer Ära, in der Sehen nicht mehr gleich Glauben bedeutet.“
Der Kern von SB 1117 liegt in seinem dualen Ansatz: Er bietet einen Schutzschild für Opfer durch zivilrechtliche Klagen und ein Schwert für die Staatsanwaltschaft durch strafrechtliche Anklagen. Im Gegensatz zu früheren Gesetzesentwürfen, die Deepfakes ähnlich wie Verleumdung oder einfache Belästigung behandelten, erkennt Missouris neuer Rahmen den dauerhaften psychologischen und rufschädigenden Schaden an, der durch synthetische sexuelle Medien verursacht wird.
Nach dem neuen Statut ist die unbefugte Offenlegung intimer digitaler Darstellungen beim ersten Verstoß nun eine Straftat der Klasse E (Class E felony). Diese Einstufung ist von Bedeutung, da sie potenzielle Gefängnisstrafen und ein dauerhaftes Vorstrafenregister nach sich zieht, was die Schwere des Verbrechens über einfaches Internet-Trolling hebt.
Wenn der Täter vorbestraft ist oder wenn die Verbreitung zu schwerem Schaden für das Opfer führt, erhöht sich die Anklage auf eine Straftat der Klasse C (Class C felony). Dieses gestufte System soll Serien-Täter und diejenigen abschrecken, die mit nicht konsensuellen Inhalten Geld verdienen.
Am wirkungsvollsten für die Opfer ist vielleicht die Einführung von gesetzlichem Schadensersatz. Der Nachweis eines tatsächlichen finanziellen Schadens ist in Deepfake-Fällen bekanntermaßen schwierig. Um dies zu adressieren, erlaubt das Gesetz Opfern zu klagen auf:
Tabelle: Hauptbestimmungen von Missouris SB 1117
| Art der Bestimmung | Neuer Standard unter SB 1117 | Bisheriger rechtlicher Rahmen |
|---|---|---|
| Einstufung des Erstverstoßes | Straftat der Klasse E (Class E Felony) | Vergehen (Belästigung/Verletzung der Privatsphäre) |
| Wiederholungstäter | Straftat der Klasse C (Class C Felony) | Vergehen der Klasse A (Class A Misdemeanor) |
| Zivilrechtlicher Schadensersatz | Bis zu 150.000 $ gesetzlicher Schadensersatz | Erfordert Nachweis tatsächlicher finanzieller Verluste |
| Umfang des Materials | Deckt explizit „digital manipulierte“ Inhalte ab | Mehrdeutige Abdeckung synthetischer Medien |
| Anforderung der Einwilligung | Muss schriftlich und spezifisch für die Darstellung sein | Oft impliziert oder undefiniert |
Während Missouri mit konkreter Durchsetzung voranschreitet, bleibt die internationale Landschaft fragmentiert. Berichte vom jüngsten globalen KI-Gipfel zeigen, dass Dutzende von Ländern vor verbindlichen Sicherheitsverpflichtungen im neu vorgeschlagenen „Global AI Pledge“ zurückgeschreckt sind.
Quellen aus dem Umfeld der Verhandlungen zufolge zögern große Nationen, eine strikte Haftung für KI-Ergebnisse einzuführen, aus Angst, dies könnte die Innovation im aufstrebenden Sektor der generativen KI ersticken. Dieser „Innovation-First“-Ansatz hat zu einem regulatorischen Stillstand geführt, bei dem freiwillige Leitlinien hartes Recht ersetzen.
Der Kontrast ist auffällig: Während globale Diplomaten über die Definition von „Sicherheit“ debattieren, sind die Staatsanwälte in Missouri nun befugt, Personen zu inhaftieren, die KI-Tools als Waffe einsetzen. Diese Divergenz unterstreicht einen wachsenden Trend, bei dem US-Bundesstaaten zu Laboren für die KI-Regulierung werden und das Vakuum füllen, das durch föderale und internationale Untätigkeit entstanden ist.
Für die KI-Community und Plattformen, die nutzergenerierte Inhalte hosten, führt der „Taylor Swift Act“ komplexe Compliance-Herausforderungen ein. Der Entwurf enthält Safe-Harbor-Bestimmungen für interaktive Computerdienstanbieter (ISPs) und Plattformen, die in gutem Glauben handeln, um den Zugang zu solchen Inhalten zu beschränken. Die Last der Erkennung bleibt jedoch eine erhebliche technische Hürde.
Trotz Fortschritten beim Wasserzeichen-Einsatz und Metadaten-Tagging (wie C2PA-Standards) bleibt die zuverlässige Erkennung hochwertiger Deepfakes schwierig. Open-Source-Modelle, die oft auf lokaler Hardware (Endverbraucher-GPUs) laufen, können fotorealistische Bilder ohne Sicherheitsfilter oder Wasserzeichen erzeugen.
Compliance-Maßnahmen für Entwickler und Plattformen umfassen nun:
Missouri ist in diesem Kampf nicht allein, aber seine Gesetzgebung gehört zu den aggressivsten. Im weiteren Verlauf des Jahres 2026 erwarten Rechtsexperten eine Welle ähnlicher „Taylor Swift Acts“ in anderen republikanischen und demokratischen Bundesstaaten, getrieben von der überparteilichen Natur des Themas.
Ohne einen föderalen Standard oder eine einheitliche globale Verpflichtung bleibt das Internet jedoch eine fragmentierte Gerichtsbarkeit. Ein Bild, das legal in einem Land erstellt wurde, das den Global AI Pledge abgelehnt hat, kann in Missouri immer noch Verheerungen anrichten. Vorerst hat der „Show-Me-State“ der Welt jedoch gezeigt, dass er bereit ist, digitale Rechte als Menschenrechte zu behandeln, und bietet damit eine Blaupause für die Überwachung der dunkelsten Ecken des synthetischen Webs.