
ワシントンD.C. — シリコンバレーのAI研究所と連邦政府の間の紛争が歴史的かつ前例のないエスカレーションを見せ、戦争省(Department of War、旧国防総省)はAnthropicとの2億ドルの契約を解除した。この動きは、同AI安全企業が、自律型兵器や大量監視のためのモデル使用に関する運用制限の解除を拒否したことを受けてのものだ。
昨日遅くに出された指令の中で、ピート・ヘグセス(Pete Hegseth)戦争長官は、Anthropicを「国家安全保障に対するサプライチェーン・リスク(Supply-Chain Risk to National Security)」に正式に指定した。このラベルは歴史的に、米国の利益に敵対的と見なされる外国の敵対勢力や通信ベンダーのために予約されてきたものである。この指定により、米軍の広大な請負業者ネットワークと、サンフランシスコを拠点とするこのAI企業との間のすべての商業的相互作用が即座に禁止される。
この契約解除は、AnthropicのフラッグシップモデルであるClaudeに組み込まれた倫理的な「レッドライン(境界線)」をめぐる数ヶ月に及ぶ紛争の最高潮を意味する。国防総省は戦略的優位性を維持するためにフロンティアAIモデルへの「無制限」のアクセスを求めてきたが、Anthropicは特定の殺傷および監視用途に対応させるための利用規約(AUP)の修正を断固として拒否してきた。
交渉に近い情報筋によると、戦争省はClaudeが完全自律型ドローンの操縦や国内通信データの大規模な分析に使用されるのを防ぐセーフガードの削除を要求したという。AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)氏はこれらの条件を拒否したと報じられており、民主的価値観を損なう可能性や、意味のある人間の監視を欠くような方法で自社の技術を展開させることは「良心に照らして」許容できないと述べた。
「これは能力の失敗ではなく、原則の衝突である」と、Creati.aiのシニアアナリストは述べた。「Anthropicは、顧客が地球上で最も強力な軍隊であっても、AIの安全性は譲れないという考えに事実上ビジネスを賭けている」。
最も重要な進展は、契約自体の損失ではなく、米国内の企業に対して「サプライチェーン・リスク」の権限が発動されたことである。ヘグセス長官の命令は、単なるサービスのキャンセルをはるかに超える影響を及ぼす。
指定の主な影響:
法学者は、外国のスパイ活動やサボタージュを防ぐために設計されたサプライチェーンの権限を、倫理ガイドラインをめぐる国内の契約紛争を罰するために使用することの妥当性に疑問を呈している。Anthropicはこの指定を、真のセキュリティ評価ではなく「イデオロギー的な報復」であるとして、連邦裁判所で争うことを誓っている。
Anthropicが国防総省のポートフォリオから外れる中、ライバル研究所のOpenAIは軍の主要なAIパートナーとしての地位を固めるために迅速に動いた。報告によると、OpenAIはAnthropicが拒否した条件に同意し、機密ネットワーク内にGPT-4ベースのシステムを展開する収益性の高い新契約を締結した。
この移行は、2つのAI巨頭間の激しい公的紛争を引き起こした。OpenAIの新契約の報道を受けて、ダリオ・アモデイ氏は辛辣な内部メモを発行し、その一部がテックメディアにリークされた。アモデイ氏はOpenAIを「安全性の茶番(Safety Theater)」に従事していると非難し、軍事用セーフガードに関する彼らの公的なメッセージを「真っ赤な嘘」と表現した。
「OpenAIは平和主義者を装いながら、自らが守ると主張するまさにその安全基準を侵食する契約を結んでいる」とアモデイ氏は記した。彼は、OpenAIの合意には自律的な殺傷能力に関する制限を事実上無効にする「抜け穴」が含まれている可能性が高いと主張したが、OpenAIはこの主張を強く否定し、彼らのパートナーシップは専ら「合法的な防衛用途」に焦点を当てていると述べた。
Anthropicのブラックリスト登録は、より広範なAIエコシステムに冷ややかなシグナルを送っている。これは、米国政府がもはやテクノロジープロバイダーからの「倫理的な摩擦」を許容するつもりがないことを示唆している。ベンチャーキャピタルの支援を受けるAIスタートアップにとって、メッセージは明確だ。すなわち、戦争省の目的との一致が、公共セクターでの生存のための必須条件となったということである。
以下の表は、2026年3月時点での軍事協力に関する主要なAI研究所の分かれた道を示している:
主要AI研究所の戦争省とのステータス
| ラボ名 | 契約ステータス | 致死性自律兵器に関する姿勢 |
|---|---|---|
| Anthropic | 解除 / ブラックリスト登録 | 憲法的AI(Constitutional AI)による厳格な禁止 |
| OpenAI | 有効 / 拡大 | 「合法的な防衛」目的の使用を許可 |
| Google DeepMind | 審査中 | 制限あり、ヒューマン・イン・ザ・ループ(人間による介在)のみ |
| xAI | 有効 / 機密 | 無制限の「合法的な使用」を遵守 |
今後数週間はAnthropicにとって極めて重要になるだろう。もし「サプライチェーン・リスク」の指定が法的精査を生き延びれば、同社はエンタープライズ事業に対する実存的な脅威に直面することになる。防衛セクターにもサービスを提供している法人顧客は、規制の飛び火を避けるために代替モデルへの移行を余儀なくされる可能性がある。
一方、戦争省は、ヘグセス長官が強力な安全フィルタリングを備えたモデルを表現するために使用した用語である「ポリコレAI(Woke AI)」に対する忍耐が限界に達したというシグナルを送っている。米国が生成AI(Generative AI)を指揮統制インフラに統合しようと急ぐ中、「愛国的な」AI開発者と「安全性優先」の研究所の間の溝は、業界を定義する断層線になろうとしている。