
シリコンバレー(Silicon Valley)とワシントンの間の深刻な摩擦を浮き彫りにする劇的な転換点において、AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)氏が、国防総省(Pentagon)高官との交渉を再開したと報じられた。この進展は、国防総省(DoD)がこのAIセーフティ(AI Safety)の新興企業を、通常は外国の敵対勢力に適用される厳しい分類である「サプライチェーン・リスク(supply chain risk)」に正式に指定し、競合するOpenAIと提携を結んだわずか数日後のことである。
この件に詳しい関係者によると、アモデイ氏は現在、国防次官(研究・技術担当)であるエミール・マイケル(Emil Michael)氏と「土壇場」の協議を行っている。その目的は、当初の決裂の原因となった倫理的なガードレール(ethical guardrails)に完全に屈することなく、Anthropicが防衛契約を維持できるようにする妥協案を模索することにある。
今回の交渉再開の背景には、国防総省による前例のない動きがある。先週金曜日に最初の交渉が決裂した後、ピート・ヘグセス(Pete Hegseth)国防長官はAnthropicを「サプライチェーン・リスク」に指定する動きを見せた。この指定は事実上のブラックリストとして機能し、国防総省との直接契約を禁止するだけでなく、あらゆる防衛請負業者やサプライヤーがAnthropicと商業活動を行うことを禁止するものである。
米国を拠点とするテクノロジー企業にとって、この指定は壊滅的である。それは、Anthropicを政府パートナーの広大なエコシステムから切り離す恐れがあり、同社が国家安全保障上の利益と対立していることを示唆することで、民間投資を冷え込ませる可能性がある。
紛争の中心は、AIの使用に関する具体的な契約条項にある。Anthropicは、軍がClaudeモデルを「国内での大量監視(mass domestic surveillance)」や「自律型致死兵器(lethal autonomous weapons)」に使用することを禁止する条項の削除を一貫して拒否してきた。これに対し、国防総省(Pentagon)はこれらの制限の削除を要求し、テクノロジーを「あらゆる合法的な目的」に使用する権利を主張している。
以前の協議の決裂は、特定の1つのフレーズに集約されていたと報じられている。内部メモによると、国防総省は、同社が「大量に取得されたデータの分析(analysis of bulk acquired data)」を制限する条項を削除する場合に限り、Anthropicの広範な条件を受け入れることを提案した。
アモデイ氏はこの要求を深い疑念を持って受け止め、同社が阻止しようとしているまさに大量監視のシナリオを可能にする抜け穴であると解釈した。「我々はそれを非常に疑わしいと感じた」と、アモデイ氏はスタッフへのメモに記し、政府の要求を、良心に照らして同社が越えることのできないレッドライン(red line)であると特徴づけた。
緊張は個人的な敵意によってさらに激化した。現在アモデイ氏と交渉の席についている高官、エミール・マイケル氏は先週、SNS上でCEOを公然と批判し、国防の取り組みからテクノロジーを惜しんでいるとして、彼に「神コンプレックス(God complex)」があると非難した。交渉の再開は、現実的なビジネスの生存本能が、こうした過激な言辞の鎮静化を強いていることを示唆している。
Anthropicが倫理原則を堅持する一方で、最大のライバルであるOpenAIは、その空白を利用するために迅速に動いた。Anthropicと国防総省の交渉が決裂してから数時間以内に、OpenAIのCEOであるサム・アルトマン(Sam Altman)氏は国防総省との新たなパートナーシップを発表した。
OpenAIの合意は、国防総省の「あらゆる合法的な目的」という要件に沿ったものだと言われている。OpenAIは自社の安全基準が依然として強固であると主張しているが、アモデイ氏はこの動きを鋭く批判し、この文脈におけるライバルの安全性の主張を「安全性の劇場(safety theater)」であり「虚偽(mendacious)」であると表現している。
戦略の相違は、AI防衛の展望に明確な二分化をもたらした。
防衛部門におけるAI巨人の比較(2026年3月)
| 企業名 | 防衛契約に対する主なスタンス | 現在の国防総省におけるステータス |
|---|---|---|
| Anthropic | 監視防止条項の削除を拒否。「大量データ分析」を具体的に阻止。 | 「サプライチェーン・リスク(Supply Chain Risk)」に指定。再交渉を試行中。 |
| OpenAI | 「あらゆる合法的な目的」の基準に合意。内部の「セーフティ・スタック」に依存。 | 有効な契約を締結済み。主要なワークフローでAnthropicを代替。 |
| Google DeepMind | 慎重な関与。物理的な作戦ではなく、サイバーセキュリティとロジスティクスに焦点を当てる。 | 従来の契約を維持。現在の紛争を注視。 |
アモデイ氏とマイケル氏の間の交渉再開は、恒久的な決裂がどちらの側にも利益をもたらさない可能性を示唆している。国防総省にとって、解釈可能性(interpretability)と推論能力で広く評価されているAnthropicのClaudeモデルへのアクセスを失うことは、AI兵器の多様性を損なうことになる。Anthropicにとって、「サプライチェーン・リスク」の指定は、600億ドルの時価評価を台無しにし、国防総省と対立することを警戒する商業パートナーを遠ざける可能性のある、存亡に関わる財務的脅威である。
業界のアナリストは、妥協案には「カーブアウト(除外規定)」が含まれる可能性があると示唆している。つまり、Anthropicのモデルが特定の非戦闘用のロジスティクスや情報収集タスクには承認される一方で、監視や自律型兵器システムからは遮断(ファイアウォール)されるという形だ。しかし、信頼関係は依然として低いままである。
これらの交渉の結果は、米国政府が民間のAI研究所をどのように強制し、あるいは協力するかについての前例となる可能性が高い。もしAnthropicがブラックリストの指定を解除するために屈することを余儀なくされれば、倫理的なレッドラインは国家の要求と衝突した場合には維持不可能であるという、業界への冷ややかなメッセージとなる。逆に、アモデイ氏が譲歩を勝ち取れば、防衛部門においてさえ「憲法的AI(Constitutional AI)」のアプローチが実行可能なビジネスモデルであることを証明することになるだろう。
金曜日の朝の時点で指定は有効なままであり、テクノロジー部門は、被害が恒久的になる前に「リスク」のラベルを覆すことができるかどうかを見守っている。