
英国の人工知能(AI)に関する規制環境を根本的に変える決定的な動きとして、キア・スターマー(Keir Starmer)首相は、OpenAIのChatGPTやxAIのGrokといった市場リーダーを含むすべてのAIチャットボットプロバイダーが、**オンライン安全法(Online Safety Act)**を厳格に遵守しなければならないと発表しました。
今朝、ダウニング街から行われたこの発表は、これまでスタンドアロンの生成AI(Generative AI)モデルが従来のソーシャルメディアプラットフォームよりも少ない監視で運用されることを許容していた規制の「グレーゾーン」の終わりを告げるものです。政府によるこの取り締まりは、AIによって生成されたディープフェイクや不適切な素材の拡散に対する国民の怒りの高まりを受け、有害なコンテンツから子供たちを保護することを明確な目的としています。
長年、AI規制をめぐる議論はイノベーションと安全性のバランスに集中してきました。本日、英国政府は天秤を安全性の方へと大きく傾けました。テクノロジー担当大臣であるPeter Kyle氏の支持を受けたスターマー首相は、基盤モデルの自主規制の時代は終わったと宣言しました。
「テクノロジーは非常に速く進歩しており、法律はそれに追いつかなければなりません」と、スターマー首相は演説の中で述べました。「いかなるプラットフォームにもフリーパスは与えられません。本日、私たちは子供たちを危険にさらす抜け穴を閉じ、さらなる行動のための土台を築きます。」
この新しい義務の中核となるのは、Online Safety Act 2023の解釈です。もともとはFacebookやXのような「ユーザー対ユーザー」サービスや検索エンジンを規制するために設計されたこの法律の、コンテンツをホストするだけでなく生成するスタンドアロンのAIチャットボットへの適用は、これまで曖昧でした。この曖昧さが、チャットボットが同じ素材をホストするソーシャルネットワークと同じ法的責任を負うことなく有害なコンテンツを生成できるという、実質的な抜け穴を作り出していました。
政府は現在、英国のユーザーにサービスを提供するすべてのAIチャットボットプロバイダーを、同法の違法コンテンツに関する義務の全範囲に含めることを明確にしました。これは、OpenAI、Google、xAIなどの企業が、児童性的虐待素材(CSAM)、同意のない親密な画像、自傷行為を助長するコンテンツを含む違法コンテンツの生成を自社のモデルが防止することに対して、法的な責任を負うことを意味します。
この規制は業界全体に影響を与えますが、この急速な政策転換の直接的な引き金となったのは、xAIの**Grok**チャットボットをめぐる最近の論争であると考えられます。今月初め、このツールが実在の女性や子供の同意のない性的な画像(ディープフェイク)を生成するために使用されたという報告が浮上し、世界的な反発を招きました。
そのようなプロンプトを拒否するために厳格な「ガードレール」を実装している競合他社とは異なり、Grokの「楽しいモード(fun mode)」と緩いコンテンツフィルターにより、ユーザーは安全基準を容易に回避することができました。英国政府の対応は、このような脆弱性に対するゼロ寛容のアプローチを強調しています。
テクノロジー担当大臣のPeter Kyle氏は、この点を強調し、「私たちは家族が必要としている行動をとるのを待つことはありません。だからこそ、私はElon Musk氏とGrokが英国の法律と英国の価値観を軽視したとき、彼らに立ち向かったのです」と述べました。
非complianceに対するリスクは深刻です。施行された規則の下で、Ofcom(英国の通信規制当局)は**企業の全世界の年間売上高の最大10%**の罰金を科す権限を有しており、これはGoogleやMicrosoftのような巨大テック企業にとっては数十億ドルに達する可能性がある数字です。
金銭的な罰則以外にも、政府は英国内で遵守しないサービスへのアクセスを完全に遮断すると脅しています。また、経営幹部は、情報提供依頼への協力に失敗したり、安全義務を怠ったりした場合、刑事責任を問われる可能性もあります。
新しい義務に従うために、AI企業は直ちに以下を実装しなければなりません:
以下の表は、英国におけるAI chatbotsの規制環境が即座にどのように変化したかを概説しています。
英国におけるAIチャットボットの規制状況
| 項目 | 以前のステータス(義務化前) | 新しい義務(オンライン安全法適用後) |
|---|---|---|
| 法的分類 | 曖昧 / 「グレーゾーン」 | 明確に安全義務の「範囲内」 |
| コンテンツに対する責任 | 限定的(多くの場合、ツールプロバイダーと見なされる) | 生成された違法コンテンツに対する厳格な責任 |
| 年齢確認 | 自発的 / 自主規制 | 高リスクサービスに対して義務的 |
| 罰則メカニズム | 評判の低下 | 全世界の売上高の最大10%の罰金 |
| 規制当局の権限 | 限定的な監視 | Ofcomによる完全な執行権限 |
この発表はAIセクターに衝撃を与えました。OpenAI(ChatGPTの作成者)やAnthropic(Claude)といった主要なプレーヤーは以前から規制を支持してきましたが、この実施のスピードと厳格さは、大きな技術的ハードルをもたらします。
主な課題は、大規模言語モデル(Large Language Models:LLM)の非決定論的な性質にあります。スキャンして削除できる静的ファイルであるソーシャルメディアの投稿とは異なり、AIの応答はその場で生成されます。モデルが特定の種類の有害な出力を決して生成しないようにすることは技術的に困難であり、意図せずモデルの有用性を低下させる可能性のある「脱獄(jailbreak)」パッチ適用が必要になることがよくあります。
テック業界内の批判的な人々は、生成されたコンテンツに対する厳格な責任により、企業が英国市場向けに自社モデルを「ロボトミー化」せざるを得なくなり、役に立たなくなるほど過度に慎重になる可能性があると警告しています。しかし、NSPCCを含む児童安全擁護団体は、この動きをデジタルネイティブのための待望の保護として歓迎しています。
英国のこの動きは、同国を世界のAI規制の最前線に位置づけますが、他国とは異なるアプローチをとっています。
新しい基本法(制定に数年かかる)を起草するのではなく、既存のオンライン安全法を活用することで、英国はEUよりも迅速に行動できることを証明しました。この「機敏な規制(agile regulation)」アプローチは、生成AIの急速な台頭に取り組む他の国々にとっての先例となる可能性があります。
英国における生成AIの「西部開拓時代(wild west era)」は公式に終了しました。各企業が自社の安全プロトコルの監査を急ぐ中、ダウニング街からのメッセージは明確です。ユーザー、特に子供たちの安全は、後付けで処理されるのではなく、コードに組み込まれなければなりません。Creati.aiおよびより広範な開発者コミュニティにとって、これは*コンプライアンスエンジニアリング(compliance engineering)がプロンプトエンジニアリング(prompt engineering)*と同様に重要になる転換点となります。