
英国政府が数ヶ月前にOpenAIと注目度の高い覚書(MoU:Memorandum of Understanding)を締結した際、その発表は国家のデジタルな未来における画期的な瞬間として位置づけられました。大臣たちは、このパートナーシップを「社会の最大の課題に対処し」、人工知能(AI)を活用して公共サービスの提供を変革するための触媒であると宣伝しました。しかし、8ヶ月が経過して事態が落ち着くにつれ、厳しい現実が浮き彫りになりました。政府は、公共セクター全体でOpenAIの技術に関する実質的な試行をまだ一度も実施していないのです。
AIガバナンスと導入における世界的リーダーであることを繰り返し自称してきた政権にとって、進展の欠如は不都合な疑問を投げかけています。英国におけるAI統合の現状を調査すると、AI主導の改革という政治的レトリックと、政府部門の運用の現実との間に、大きな乖離があることが明らかになります。
この精査は、AIコンサルティング会社であるVallianceによって提出された情報公開(FoI)請求に端を発しています。この請求は、前述の覚書に基づいて実施された試行の明確化を求めたものでした。科学・イノベーション・技術省(DSIT)からの回答は素っ気ないものでした。同省は、そのような試行に関する情報を一切保持しておらず、合意に基づくテストも実施していないという内容でした。
政府は、司法省(MoJ)によるChatGPTの限定的な使用を進展の証として挙げましたが、業界の観察者たちは、これが約束された内容の表面をなぞったに過ぎないと主張しています。MoUは、政府全体および民間セクターにおいて高度なモデルを展開する機会を特定することを目指し、さらに踏み込んだ内容になるはずでした。代わりに、批評家たちは、政府のアプローチは技術的なボトルネックではなく、「意欲の欠如(failure of intent)」によって特徴付けられていると指摘しています。
以下の表は、政府のAIパートナーシップの公表された目的と、現在までに記録された進捗状況の間の不一致をまとめたものです。
| 側面 | 掲げられた目標 | 現在の状況 |
|---|---|---|
| 戦略的なAI展開 | 政府機能全体に高度なAIモデルを展開する | 司法省(MoJ)における孤立した小規模なChatGPT利用に限定されている |
| インフラ目標 | 「スターゲートUK(Stargate UK)」を構築し、8,000個のNvidiaチップを導入する | 進展の停滞。完了期限に関する重大な疑念 |
| 説明責任 | 透明性が高く、測定可能な公的利益を確立する | 明確な指標や標準化された調達監視が欠如している |
| 共同研究 | 安全性とイノベーションに関する積極的かつ継続的なコラボレーション | 主に非実験的な安全性研究に限定されている |
目に見える進展の欠如は、単なる運用の失敗ではありません。それは、政府がフロンティア技術をどのように調達し、管理すべきかという核心に触れるものです。エイダ・ラブレス研究所(Ada Lovelace Institute)やその他の政策シンクタンクのエキスパートは、これらのパートナーシップの「自発的」な性質に関して妥当な懸念を表明しています。
公的な入札、説明責任、透明性の厳格な規則に縛られる従来の調達プロセスとは異なり、これらのハイレベルなMoUは、規制上のグレーゾーンで運用されることがよくあります。標準的なプロトコルをバイパスすることで、政府はベンダーの「ロックイン(lock-in)」シナリオを作り出すリスクを負います。そこでは、公共サービスが特定のプロプライエタリ製品に過度に依存するようになり、公共セクターへの導入に求められる厳格な精査をそれらの製品が受けていないという状況が生じます。
さらに、国民はますます警戒を強めています。世論調査によると、市民の大部分は、政府が国民を保護するという根本的なニーズよりも、AIセクターの利益を優先しているのではないかと懸念しています。政府がOpenAI、Google DeepMind、Anthropicといったテック巨人と協定を結ぶ際、そこにはこれらの取引が国民生活の直接的な改善をもたらすという暗黙の約束があります。それらの結果が実現しない場合、AIへの移行を統治する任務を負った機関そのものへの信頼が損なわれます。
覚書から実施への移行を躊躇すること(しばしば安全性への慎重なアプローチと表現されます)は、実際には逆効果になる可能性があります。英国AI安全性研究所(UK AI Safety Institute)が実施しているような厳格な安全性テストは不可欠ですが、それが管理上の麻痺の言い訳になってはなりません。
公共セクターのAI(Public sector AI)導入は、単にモデルを選択することだけではありません。それは、デジタルインフラを構築し、労働力のスキルを向上させ、AI統合を処理するために官僚的なプロセスを再設計することでもあります。有意義な試行を開始できないことで、英国政府(UK government)は重要な「実践による学習(learning-by-doing)」の機会を逃しています。遅延が1ヶ月増えるごとに、公務員がプロンプトエンジニアリングのニュアンス、AIワークフローにおけるデータプライバシー、およびアルゴリズムによる意思決定の倫理的な管理に習熟しないままの期間が延びることになります。
現在の行き詰まりを打破するために、英国政府は広範で拘束力のない合意から、明確で成果重視の戦略へと舵を切らなければなりません。信頼を回復し、真のイノベーションを促進するためには、以下のステップが不可欠です。
Creati.aiが政策とイノベーションの交差点を監視し続けている中で明らかなのは、契約への署名は最初の一歩に過ぎないということです。政府のAI戦略の真の試金石は、プレスリリースやMoUではなく、これらの技術を国家の日常業務に統合するという、骨の折れる、詳細で、しばしば困難な作業の中にあります。英国政府が署名テーブルからパイロットテストへと移行する意思を示すまで、その「AI主導の公共サービス」への野心は、今のところ、大部分が願望にとどまったままとなるでしょう。