
Anthropic と米国国防総省(DoD)の間で激化する紛争は、民間による AI ガバナンスと現代の防衛戦略の要件との間に根深く存在する摩擦を浮き彫りにし、重大な転換点に達しています。2026年3月、ペンタゴン(Pentagon)はサンフランシスコを拠点とするこの人工知能企業を正式に「サプライチェーン・リスク(supply chain risk)」に指定しました。Anthropic を特定の防衛契約から事実上排除するこの前例のない動きは、軍事作戦における AI 展開の境界線を定義しようとする広範な闘争における、極めて重要なケーススタディとなっています。
この紛争の核心には、自律性と監督をめぐる根本的な意見の相違があります。AI の安全性と憲法的 AI(Constitutional AI)に焦点を当てていることで知られる Anthropic は、同社の主力モデルである Claude の使用に関して、特定の「レッドライン(引いてはならない一線)」を維持しようとしてきました。同社によれば、これらの制限は、国内の大規模な監視や完全自律型の致死性兵器システムが関与するシナリオでの技術適用を禁止するものです。しかしながら、ペンタゴン は、企業が課す硬直的な倫理的制約は軍の運用の柔軟性と戦略的優位性を妨げると主張し、契約者は「あらゆる合法的な使用(all lawful use)」の枠組みの下で活動することを求める断固とした姿勢をとっています。
国内の主要な技術プロバイダーを「サプライチェーン・リスク」として指定することは、技術分野では滅多に見られない動きであり、通常は外国の敵対勢力に関連する団体に対して留保されるものです。ペンタゴンはこの決定を正式なものにするために、合衆国法典第10編第3252条や2018年連邦公約サプライチェーン・セキュリティ法(FASCSA)を含む特定の法的権限を発動しました。
国防総省にとって、この問題は単なる政策の問題ではなく、戦闘員が利用するツールの信頼性に関わる問題です。防衛当局は、倫理的制約が「組み込まれた」AI モデルは、現場で予測不可能な挙動を示す可能性があるという懸念を表明しています。システムが独自の内部的な安全憲法に基づいてコマンドを拒否するように設計されている場合、重要な局面で機能不全に陥り、効果のない、あるいは信頼性の低い資産でサプライチェーンを事実上「汚染」する可能性があると軍は主張しています。
行政的な影響は即座に現れました。この指令を受けて、さまざまな連邦機関が Anthropic の技術を段階的に廃止するプロセスを開始しており、移行期間は約6か月に及ぶと推定されています。Anthropic の収益の大部分は民間セクターとのパートナーシップから得られているため、同社の商業ビジネス全体への影響は限定的ですが、この排除が持つ象徴的および戦略的な重みは重大です。
紛争をめぐるレトリックはますます鋭くなっています。ペンタゴンの最高技術責任者(CTO)兼研究・工学担当国防次官である エミール・マイケル(Emil Michael) は最近、Anthropic の姿勢を批判し、公の場での発言の中で、同社が独自の安全プロトコルを主張していることを「バカげている(bananas)」と表現したことは有名です。
マイケル氏の見解は、現政権内の広範な感情を反映しています。それは、民間の AI 研究室が軍事介入のパラメータを決定すべきではないというものです。インタビューの中でマイケル氏は、AI 企業が軍のツールの使用方法に対して拒否権を持つことを許せば、指揮系統が損なわれると強調しました。彼は交渉が袋小路に達したと表現し、ペンタゴンは「次へ進む」段階にあり、防衛業務に独自の道徳的枠組みを課そうとする者ではなく、軍の目標の全範囲に同調するパートナーを必要としていると断言しました。
| 特徴 | Anthropic の立場 | ペンタゴンの視点 |
|---|---|---|
| AI 使用方針 | 自律型兵器と大規模監視を禁止する厳格な「レッドライン」を主張 | 完全な運用の柔軟性を確保するため、「あらゆる合法的な使用」へのアクセスを要求 |
| 運用の制御 | 壊滅的な誤用を防ぐため、安全で人間に整合した AI 展開を主張 | 企業が課す制約を軍の指揮への干渉と見なす |
| サプライチェーンのステータス | 執行権力の乱用であるとして、指定に異議を唱える | 合衆国法典第10編第3252条を引用し、非準拠の技術はリスクをもたらすと主張 |
| 業界の目標 | 安全で信頼性が高く、憲法に基づいた AI 開発に焦点を当てる | グローバルな競争環境における「AI の優位性」とスピードを優先する |
この指定に対抗して、Anthropic は連邦裁判所に提訴しました。同社は、ペンタゴンの動きは不当であり、言論の自由と正当な法の手続きに関する憲法上の問題を提起していると主張しています。一時的差し止め命令と予備的差し止めを求めることで、Anthropic は裁判が進行する間、サプライチェーン・リスク指定の執行を停止することを目指しています。
この訴訟を注視している法律専門家は、これが AI 調達の領域における執行権の限界を試すものになると示唆しています。中心的な法的争点は、企業の内部安全政策が現行法に違反しているのではなく、むしろそれを上回っている場合に、政府がその政策を理由に国内企業をブラックリストに載せることができるかどうかです。もし裁判所がペンタゴンに有利な判決を下せば、将来の政府と技術業界の関係に強力な前例を作ることになり、AI 企業は連邦政府との契約資格を維持するために、自社の商用製品を防衛要件に完全に適合させることを余儀なくされる可能性があります。
この対立は、単に一企業と一政府機関の間の二国間問題ではありません。これは、重要なインフラへの統合が加速する中で、グローバルな AI 業界が直面することになる課題の予兆です。AI モデルがロジスティクスや情報分析からミサイル防衛システムに至るまで深く組み込まれるようになるにつれ、政府による統制の欲求は、民間セクターによる安全性とパブリックイメージ管理の欲求と必然的に衝突することになります。
この紛争から、広範な業界に対するいくつかの主要な影響が浮かび上がっています。
当面の行政措置の混乱が収まった後、Anthropic とペンタゴンの紛争は、AI と防衛統合の「ハネムーン期間」が終わった瞬間として記憶されることになるでしょう。急速な実験と相互利益を特徴とする緩やかな協力の時代は、厳格な規制と戦略的整合の時代へと移行しつつあります。
AI エコシステムのステークホルダーにとって、教訓は明らかです。国家安全保障上の考慮事項が、今や AI 政策の主要な推進力となっています。裁判所がペンタゴンの決定を支持するか、妥協を強いるかにかかわらず、業界には警告が発せられました。革新し、規模を拡大する能力だけではもはや十分ではありません。政府の最高レベルでプレイヤーであり続けるためには、AI 企業は自社のソフトウェアが最終的に、当初の安全憲章の範囲をはるかに超えた環境や目的で配備される可能性があるという現実に立ち向かわなければなりません。AI の覇権争いが世界的に激化し続ける中、米国が、これらの技術が保護するために設計された価値観そのものを損なうことなく、世界で最も高度なソフトウェアを統合できるかどうかという問いが残されています。