
In einem entscheidenden Schritt, der die Regulierungslandschaft für künstliche Intelligenz im Vereinigten Königreich grundlegend verändert, hat Premierminister Keir Starmer angekündigt, dass alle Anbieter von KI-Chatbots – einschließlich Marktführern wie ChatGPT von OpenAI und Grok von xAI – ab sofort den Online Safety Act (Online Safety Act) strikt einhalten müssen.
Die heute Morgen aus der Downing Street getätigte Ankündigung signalisiert das Ende einer regulatorischen „Grauzone“, die es eigenständigen generativen KI-Modellen (Generative AI) bisher erlaubt hatte, mit weniger Aufsicht als herkömmliche Social-Media-Plattformen zu operieren. Das Durchgreifen der Regierung zielt explizit darauf ab, Kinder vor schädlichen Inhalten zu schützen, und reagiert auf die wachsende öffentliche Empörung über die Verbreitung von KI-generierten Deepfakes und unangemessenem Material.
Jahrelang konzentrierte sich die Debatte um die KI-Regulierung auf das Gleichgewicht zwischen Innovation und Sicherheit. Heute hat die britische Regierung das Pendel entschlossen in Richtung Sicherheit ausschlagen lassen. Premierminister Starmer, unterstützt von Technologieminister Peter Kyle, erklärte, dass die Ära der Selbstregulierung für Basismodelle (Foundational Models) vorbei sei.
„Die Technologie bewegt sich sehr schnell, und das Gesetz muss Schritt halten“, erklärte Starmer in seiner Ansprache. „Keine Plattform erhält einen Freibrief. Heute schließen wir Schlupflöcher, die Kinder gefährden, und legen den Grundstein für weitere Maßnahmen.“
Der Kern dieses neuen Mandats betrifft die Interpretation des Online Safety Act 2023. Ursprünglich für die Regulierung von „User-to-User“-Diensten (wie Facebook oder X) und Suchmaschinen konzipiert, war die Anwendung des Gesetzes auf eigenständige KI-Chatbots – die Inhalte generieren, statt sie nur zu hosten – bisher zweideutig. Diese Unklarheit schuf faktisch ein Schlupfloch, in dem ein Chatbot schädliche Inhalte generieren konnte, ohne mit den gleichen rechtlichen Haftungen konfrontiert zu sein wie ein soziales Netzwerk, das dasselbe Material hostet.
Die Regierung hat nun klargestellt, dass alle Anbieter von KI-Chatbots, die Nutzer im Vereinigten Königreich bedienen, in den vollen Anwendungsbereich der Pflichten für illegale Inhalte des Gesetzes fallen. Das bedeutet, dass Unternehmen wie OpenAI, Google und xAI nun rechtlich dafür verantwortlich sind, zu verhindern, dass ihre Modelle illegale Inhalte generieren, einschließlich Darstellungen von sexuellem Kindesmissbrauch (Child Sexual Abuse Material, CSAM), nicht einvernehmlichem intimen Bildmaterial und Inhalten, die zur Selbstverletzung anregen.
Während die Regulierung die gesamte Branche betrifft, scheint der unmittelbare Katalysator für diesen raschen Politikwechsel die jüngsten Kontroversen um den Chatbot Grok von xAI zu sein. Anfang dieses Monats tauchten Berichte auf, wonach das Tool verwendet wurde, um nicht einvernehmliche sexualisierte Bilder (Deepfakes) von realen Frauen und Kindern zu erstellen, was weltweite Empörung auslöste.
Im Gegensatz zu Wettbewerbern, die starre „Leitplanken“ (Guardrails) implementiert haben, um solche Prompts abzulehnen, ermöglichten Groks „Fun Mode“ und lockerere Inhaltsfilter den Nutzern, Sicherheitsstandards leicht zu umgehen. Die Reaktion der britischen Regierung unterstreicht einen Null-Toleranz-Ansatz gegenüber solchen Schwachstellen.
Technologieminister Peter Kyle betonte diesen Punkt und erklärte: „Wir werden nicht warten, um die Maßnahmen zu ergreifen, die Familien benötigen. Deshalb habe ich mich gegen Grok und Elon Musk gestellt, als sie britische Gesetze und britische Werte missachtet haben.“
Die Einsätze bei Nicht-Compliance (Compliance) sind hoch. Unter den durchgesetzten Regeln hat Ofcom (die britische Kommunikationsregulierungsbehörde) die Befugnis, Bußgelder von bis zu 10 % des weltweiten Jahresumsatzes eines Unternehmens zu verhängen – eine Summe, die für Tech-Giganten wie Google oder Microsoft in die Milliarden gehen könnte.
Über finanzielle Strafen hinaus hat die Regierung gedroht, den Zugang zu nicht konformen Diensten innerhalb des Vereinigten Königreichs vollständig zu sperren. Führungskräften droht zudem eine strafrechtliche Haftung, wenn sie nicht mit Informationsanfragen kooperieren oder ihre Sicherheitspflichten vernachlässigen.
Um das neue Mandat zu erfüllen, müssen KI-Unternehmen unverzüglich Folgendes implementieren:
Die folgende Tabelle skizziert, wie sich das regulatorische Umfeld für KI-Chatbots im Vereinigten Königreich mit sofortiger Wirkung geändert hat.
Regulatorischer Status von KI-Chatbots im Vereinigten Königreich
| Merkmal | Bisheriger Status (vor dem Mandat) | Neues Mandat (Online Safety Act angewendet) |
|---|---|---|
| Rechtliche Einstufung | Unklar / „Grauzone“ | Definitiv „im Anwendungsbereich“ der Sicherheitspflichten |
| Haftung für Inhalte | Begrenzt (oft als Tool-Anbieter betrachtet) | Strikte Haftung für illegal generierte Inhalte |
| Altersverifizierung | Freiwillig / Selbstregulierung | Verpflichtend für Hochrisikodienste |
| Sanktionsmechanismus | Rufschädigung | Bußgelder bis zu 10 % des weltweiten Umsatzes |
| Behördenzuständigkeit | Eingeschränkte Aufsicht | Volle Durchsetzungsbefugnis durch Ofcom |
Die Ankündigung hat Schockwellen durch den KI-Sektor gesendet. Während große Player wie OpenAI (Entwickler von ChatGPT) und Anthropic (Claude) schon lange für eine Regulierung plädieren, stellen die Geschwindigkeit und Strenge dieser Umsetzung erhebliche technische Hürden dar.
Die größte Herausforderung liegt in der nicht-deterministischen Natur großer Sprachmodelle (Large Language Models, LLMs). Im Gegensatz zu einem Social-Media-Post, bei dem es sich um eine statische Datei handelt, die gescannt und gelöscht werden kann, wird eine KI-Antwort im laufenden Betrieb generiert. Sicherzustellen, dass ein Modell niemals eine bestimmte Art von schädlicher Ausgabe generiert, ist technisch schwierig und erfordert oft „Jailbreak“-Patches, die unbeabsichtigt die Nützlichkeit des Modells beeinträchtigen können.
Kritiker innerhalb der Tech-Branche warnen, dass eine strikte Haftung für generierte Inhalte Unternehmen dazu zwingen könnte, ihre Modelle für den britischen Markt zu „lobotomieren“, was sie bis zur Nutzlosigkeit übervorsichtig machen würde. Kinderschutzbeauftragte, darunter die NSPCC, haben den Schritt jedoch als längst überfälligen Schutz für „Digital Natives“ begrüßt.
Der Vorstoß des Vereinigten Königreichs rückt das Land an die Spitze der weltweiten KI-Regulierung, verfolgt jedoch einen anderen Ansatz als seine Partner.
Durch die Nutzung des bestehenden Online Safety Act anstatt der Ausarbeitung neuer Primärgesetzgebung (was Jahre dauert), hat das Vereinigte Königreich bewiesen, dass es schneller agieren kann als die EU. Dieser Ansatz der „agilen Regulierung“ könnte einen Präzedenzfall für andere Nationen schaffen, die mit dem rasanten Aufstieg generativer KI ringen.
Die Ära des „Wilden Westens“ der generativen KI im Vereinigten Königreich ist offiziell beendet. Während Unternehmen darum kämpfen, ihre Sicherheitsprotokolle zu überprüfen, ist die Botschaft aus der Downing Street klar: Die Sicherheit der Nutzer, insbesondere der Kinder, muss im Code verankert sein und darf nicht erst im Nachhinein bedacht werden. Für Creati.ai und die breitere Entwickler-Community markiert dies einen Wendepunkt, an dem Compliance Engineering genauso entscheidend wird wie Prompt Engineering.