
倫理的な人工知能(AI)開発と国家安全保障上の要請との間の危ういバランスが、限界点に達しています。サンフランシスコを拠点とし、「憲法的AI(Constitutional AI)」と安全性第一の哲学で知られるAIラボのAnthropicは、最も強力な潜在顧客である米国国防総省(DoD:Department of Defense)からの存亡の危機に直面しています。報告によると、軍事作戦におけるClaudeモデルの使用をめぐる激しい紛争を受け、ペンタゴンはAnthropicを「サプライチェーン・リスク(supply chain risk)」に指定することを積極的に検討しています。この厳格なラベルは通常、外国の敵対勢力に対してのみ適用されるものです。
この嵐の中心にあるのは、2億ドルの防衛契約と、戦争における自律型エージェント(Autonomous agents)の役割に関する根本的な意見の相違です。OpenAIやxAIといった競合他社が「あらゆる合法的目的」という軍の要求に応じる動きを見せる一方で、Anthropic は自らのレッドライン(譲れない一線)、特に大量監視や完全自律型の致死兵器に関しては、断固としてその立場を崩していません。この衝突は取締役会での交渉から、業界全体に及ぶブラックリスト入りの可能性へとエスカレートしており、最先端AIの防衛産業基盤への統合における重大な局面を迎えています。
Anthropicと国防当局との摩擦は、2026年1月にベネズエラの元大統領ニコラス・マドゥロの拘束を試みた機密作戦の後に沸点に達したと報じられています。この件に詳しい関係者によると、ペンタゴン はデータ分析パートナーであるPalantirとの統合を介して、作戦中のリアルタイム・インテリジェンスの処理にClaudeを利用しました。
作戦自体は軍事基準で戦術的成功とみなされましたが、その余波はテック企業と国防総省の間に深刻な外交的亀裂を引き起こしました。作戦後の日常的なレビューの中で、Anthropicのエンジニアたちは、同社のモデルが急襲作戦で具体的にどのように適用されたのかを疑問視し、その展開が致死的な意思決定チェーンに近づきすぎているとの懸念を提起したとされています。この問い合わせはペンタゴン指導部によって、責任ある監視ではなく、民間ベンダーによる主権的な軍事行動への受け入れがたい介入であると受け止められました。
ピート・ヘグセス国防長官はそれ以来、強硬な姿勢をとっており、「国防総省は、戦争を戦うことを許さないモデルは採用しない」と述べたと伝えられています。この感情は、Anthropicのイデオロギー的なガードレールが、現代の紛争で求められるスピードと殺傷能力に適合しないという、ペンタゴン内部で高まっている不満を反映しています。国防総省は、あるユースケースが国際法および米国法の下で合法であるならば、テクノロジーベンダーは民間の企業道徳に基づいて拒否権を持つべきではないと主張しています。
争いの核心は、「安全性」の定義の相違にあります。Anthropicにとって安全性とは、Claudeのアーキテクチャそのものにコード化されたものであり、人権侵害の助長や完全自律型兵器としての動作など、自らの憲法に違反する要求を拒否するように設計されています。ペンタゴンにとって安全性とは、指揮官が合法的な命令を出した際に、ツールが制限なく確実に機能するという保証を意味します。
Anthropicは、以下の2つの特定の閾値を越えることを明示的に拒否しています。
これらの制限はAI研究コミュニティの多くの価値観と一致していますが、防衛計画立案者からは負債とみなされています。ペンタゴンの反論は、「あらゆる合法的目的」には国防に必要な広範囲の致死的活動や監視活動が含まれるというものです。これらのカテゴリーに対する包括的な免除を拒否することで、Anthropicは現場の要員を危険にさらしかねない信頼性の欠如を生み出していると見なされています。
以下の表は、軍事統合に関する主要なAIラボの現在の立場をまとめたものです。
主要AIラボの防衛契約に対する姿勢の比較
---|---|----
AIラボ|軍事姿勢|主な対立/ステータス
Anthropic|制限的 / 倫理的ガードレール|致死的な自律性の拒否により「サプライチェーン・リスク」指定の恐れ。
OpenAI|柔軟 / 協調的|「軍事および戦争」への使用禁止規定を削除。「合法的な」使用に向けて緊密な関係を交渉中。
xAI|非制限的 / 強硬派|防衛契約を積極的に誘致。「アメリカ・ファースト」の防衛構想と一致。
Google (DeepMind)|穏健 / プロジェクト特定型|過去の内部反発(Project Maven)があるが、JADC2契約を追求。
この進行中の物語で最も憂慮すべき側面は、Anthropicを「サプライチェーン・リスク」としてラベル付けするというペンタゴンの脅しです。この指定は、単に2億ドルの契約を1つ失うことよりもはるかに大きな損害を与えます。連邦政府の契約エコシステムにおいて、サプライチェーン・リスクのラベルは感染症のように広がります。
もし適用されれば、ロッキード・マーティン、ノースロップ・グラマン、Palantirなどの主要契約企業は、政府の仕事への入札資格を維持するために、自社のシステムからAnthropicのコードを削除することを法的に強制されます。これにより、国防総省のセキュリティ基準に準拠する非軍事機関を含む、連邦政府市場全体からClaudeを事実上追放することになりかねません。
業界アナリストは、この動きがAnthropicを見せしめにするために考案されたものだと警告しています。「ペンタゴンはシリコンバレーに明確なメッセージを送っている」とLawfare Instituteの防衛政策専門家は指摘します。「倫理規定を持つことは自由だが、政府との契約を持ちたいのであれば、合衆国軍に対して交戦規定を指図することはできないのだ。」
この衝突のタイミングは偶然ではありません。これは、Anthropicが最小限の人間介入で複雑な多段階のタスクを実行できる最新世代の「自律型エージェント」をリリースした時期と重なっています。これらのエージェントが、チャットボットからコードを書き、サイバーシステムを制御し、地理空間データを分析できるアクティブなオペレーターへと進化するにつれ、その制御をめぐる利害は飛躍的に高まっています。
ペンタゴンは、これらの自律型エージェントを、AIを急速にキルチェーンに統合している中国のような同等の敵対勢力(ニアピア)に対する優位性を維持するために不可欠であると考えています。国防総省内の懸念は、重要なサイバー攻撃やドローン群の調整中にコマンドを「拒否」する可能性のあるモデルに依存することは、許容できない戦略的脆弱性であるということです。
Anthropicがその立場を堅持する一方で、競合他社はこの亀裂を利用しています。報告によると、xAIとOpenAIは、機密環境向けに「無検閲」または「ミッション遂行可能」なバージョンのモデルを提供し、クリアランスプロセスを加速させています。これらの代替案は、強力なインテリジェンス機能を、道徳的な裁定という摩擦なしにペンタゴンが要求する通りに提供することを約束しています。
Creati.aiの読者や広範なテック業界にとって、この対立は決定的な分岐点を象徴しています。もしAnthropicが罰せられることになれば、業界全体で「安全性第一」の取り組みが冷え込み、ラボが良心よりもコンプライアンスを優先する動機付けとなるかもしれません。逆に、Anthropicがその地位を維持できれば、民間部門の倫理が、歯止めのきかない戦争の自動化を抑制することに成功するという、新たな前例を確立することになるでしょう。
契約更新の期限が近づく中、業界は固唾を飲んで見守っています。その結果は、単に2億ドルの契約の行方を決めるだけでなく、軍事AIの未来がペンタゴンの要求によって形作られるのか、それとも開発者たちの倫理的なレッドラインによって形作られるのかを決定することになるでしょう。