
Die Regulierungslandschaft für Künstliche Intelligenz (AI) in den Vereinigten Staaten hat zwischen 2023 und 2025 einen tiefgreifenden Wandel erfahren. Nach Daten des Future of Privacy Forum (FPF) haben Gesetzgeber in 14 Bundesstaaten 27 verschiedene KI-bezogene Rechtsvorschriften verabschiedet, was eine Abkehr von breiten, theoretischen Rahmenbedingungen hin zu gezielten, wirkungsvollen Regulierungen signalisiert.
Seit Anfang 2026 ist die Mehrheit dieser Gesetze in Kraft getreten, was unmittelbare Compliance-Verpflichtungen für Entwickler, Anwender und Plattformen schafft. Diese Welle der Gesetzgebung befasst sich mit kritischen Bereichen, die von der Sicherheit von Grenzmodellen (Frontier Models) und katastrophalen Risiken (Catastrophic Risk) bis hin zur Chatbot-Transparenz und der nicht-konsensualen Verbreitung intimer Bilder reichen. Für KI-Fachleute und Unternehmen ist das Verständnis dieses Flickenteppichs aus staatlichen und bundesstaatlichen Anforderungen keine Frage der Zukunftsplanung mehr, sondern eine aktuelle rechtliche Notwendigkeit.
Im Jahr 2024 neigte der legislative Trend stark zu umfassenden Datenschutzgesetzen für Verbraucher mit KI-Komponenten. Das Jahr 2025 markierte jedoch einen deutlichen Schwenk hin zu enger gefassten, risikobasierten Maßnahmen. Die Gesetzgebungen der Bundesstaaten, insbesondere in Kalifornien und New York, haben die Führung übernommen, um das föderale Regulierungsvakuum zu füllen, indem sie gezielt bestimmte Technologien und Anwendungsfälle ins Visier nehmen.
Die Sitzungsperiode 2025 war geprägt von einem Fokus auf „Frontier Models“ – hochleistungsfähige KI-Systeme, die mit enormer Rechenleistung trainiert wurden – und den spezifischen Risiken, die mit generativer KI (Generative AI) verbunden sind, wie Deepfakes und emotionale Manipulation durch Chatbots. Dieser gezielte Ansatz spiegelt einen wachsenden Konsens unter den Gesetzgebern wider, dass verschiedene KI-Modalitäten unterschiedliche regulatorische Leitplanken erfordern.
Zwei der bedeutendsten legislativen Errungenschaften im Jahr 2025 waren der Senate Bill 53 (SB 53) in Kalifornien und der RAISE Act in New York. Beide Gesetze etablieren die ersten wesentlichen Compliance-Regelungen für Entwickler der fortschrittlichsten KI-Systeme und setzen damit einen faktischen nationalen Standard für die Governance von Grenzmodellen.
Der im September 2025 unterzeichnete kalifornische SB 53 ist das erste US-Gesetz, das speziell darauf ausgelegt ist, „katastrophale Risiken“ durch KI zu adressieren. Das Gesetz gilt für „Grenzmodell-Entwickler“ (Frontier Developers), die Modelle erstellen, die mit mehr als 10^26 Gleitkommaoperationen (Floating-point operations, FLOPs) trainiert wurden – ein Schwellenwert, der derzeit nur von den fortschrittlichsten Basismodellen erreicht wird.
Wichtige Bestimmungen umfassen:
Kurz darauf verabschiedete New York im Dezember 2025 den Responsible AI Safety and Education (RAISE) Act. Der RAISE Act, der am 1. Januar 2027 in Kraft tritt, spiegelt die Rechenschwellenwerte Kaliforniens (>10^26 FLOPs) wider, führt jedoch ein spezielles Aufsichtsbüro innerhalb des Department of Financial Services ein.
Der RAISE Act erfordert:
Über die Basismodelle hinaus gab es 2025 eine Welle von Gesetzen, die die Interaktion der Nutzer mit KI regulieren, insbesondere im Hinblick auf Chatbots und synthetische Inhalte.
Chatbot-Transparenz
Fünf Bundesstaaten – Kalifornien, Maine, New Hampshire, New York und Utah – haben Gesetze verabschiedet, die sich speziell mit KI-Chatbots befassen. Diese Vorschriften schreiben eine klare Offenlegung vor, wenn ein Nutzer mit einem KI-System interagiert. Das „AI Companion Model Law“ in New York und der kalifornische SB 243 gehen noch weiter und konzentrieren sich auf den Schutz der psychischen Gesundheit. Sie verlangen von Betreibern von „Begleit“-Chatbots die Implementierung von Sicherheitsprotokollen, um Notlagen oder Suizidgedanken der Nutzer zu erkennen und abzumildern, was die Besorgnis über die emotionalen Auswirkungen anthropomorpher KI widerspiegelt.
Der TAKE IT DOWN Act
Auf Bundesebene stellt der im Mai 2025 unterzeichnete „TAKE IT DOWN Act“ einen seltenen parteiübergreifenden Sieg für die KI-Regulierung dar. Dieses Gesetz stellt die Erstellung und Verbreitung von nicht-konsensualen intimen Bildern (Nonconsensual Intimate Imagery, NCII), einschließlich KI-generierter Deepfakes, unter Strafe. Es erlegt Plattformen strenge „Notice-and-Takedown“-Verpflichtungen (Hinweis-und-Entfernung) auf und verlangt von ihnen, verletzende Inhalte innerhalb von 48 Stunden nach einer gültigen Anfrage zu entfernen, unterstützt durch die Durchsetzungsgewalt der FTC.
Während viele Gesetze bereits in Kraft sind, haben mehrere kritische Regulierungen phasenweise Umsetzungsdaten, die Unternehmen verfolgen müssen.
Inkrafttreten wichtiger KI-Gesetzgebung
| Gesetz | Gerichtsbarkeit | Inkrafttreten |
|---|---|---|
| TAKE IT DOWN Act (Entfernung von Deepfakes) | Bundestebene | 19. Mai 2026 |
| SB 205 (Colorado KI-Gesetz) | Colorado | 30. Juni 2026 |
| SB 1295 (Automatisierte Entscheidungsfindung) | Connecticut | 1. Juli 2026 |
| AB 853 (Änderungen zum KI-Transparenzgesetz (AI Transparency Act)) | Kalifornien | 2. August 2026 |
| RAISE Act (Sicherheit von Grenzmodellen) | New York | 1. Januar 2027 |
| AB 853 (Anforderungen an den Herkunftsnachweis) | Kalifornien | 1. Januar 2027 |
Die Verabschiedung dieser 27 Gesetze schafft ein komplexes Compliance-Umfeld für das Publikum von Creati.ai aus Entwicklern und Unternehmensleitern. Die Ära der freiwilligen Selbstregulierung ist für Hochrisiko- und Grenz-KI-Systeme faktisch vorbei.
1. Herkunftsnachweis ist obligatorisch
Da das geänderte KI-Transparenzgesetz (AB 853) in Kalifornien 2026 und 2027 vollständig in Kraft tritt, müssen Entwickler von generativen KI-Tools Standards für Wasserzeichen und die Erkennung der Herkunft (Provenance Detection) (wie C2PA) in ihre Systeme integrieren. Plattformen, die KI-Inhalte hosten, werden gesetzlich verpflichtet sein, diese zu kennzeichnen, was ein robustes Metadatenmanagement erforderlich macht.
2. Der „Brüssel-Effekt“ in den USA
So wie die DSGVO (GDPR) einen globalen Standard für den Datenschutz gesetzt hat, deutet die Angleichung zwischen Kalifornien und New York beim Schwellenwert von 10^26 FLOPs für Grenzmodelle darauf hin, dass ein einheitlicher nationaler Standard entsteht. Sogar Unternehmen, die nicht in diesen Bundesstaaten ansässig sind, werden diese Sicherheitsrahmenbedingungen wahrscheinlich übernehmen, um den Marktzugang zu gewährleisten, wodurch diese Anforderungen auf Bundesstaatsebene faktisch nationalisiert werden.
3. Haftung für nachgelagerte Nutzung
Der TAKE IT DOWN Act und die Chatbot-Gesetze auf Bundesstaatsebene führen eine erhebliche Haftung für Plattformen ein, die nutzergenerierte Inhalte hosten. Unternehmen müssen ihre Infrastruktur für die Inhaltsmoderation aufrüsten, um schnelle Entfernungsanfragen zu bearbeiten und synthetische Medien zu erkennen, andernfalls riskieren sie strafrechtliche Haftung auf Bundesebene und erhebliche zivilrechtliche Geldstrafen.
Im weiteren Verlauf des Jahres 2026 erwarten wir weitere legislative Aktivitäten mit Fokus auf branchenspezifische Anwendungen im Gesundheitswesen und im Beschäftigungssektor. Vorerst besteht die Priorität für KI-Organisationen darin, ihre aktuellen Modelle anhand dieser neuen gesetzlichen Definitionen von „Grenzmodellen“ und „Hochrisiko“-Systemen zu prüfen, um sicherzustellen, dass sie nicht von den in der zweiten Jahreshälfte anstehenden Inkrafttretensdaten überrascht werden.