
国防における人工知能(Artificial Intelligence: AI)の未来を決定づける瞬間として、国防総省(Department of Defense)はAI安全性のスタートアップ企業であるAnthropicに対し、厳しい最後通告を突きつけた。ピート・ヘグセス(Pete Hegseth)国防長官は、同社に対し2026年2月27日金曜日までに、米軍に同社の主力製品であるClaude AIモデルへの無制限のアクセスを許可するか、さもなければ深刻な連邦政府の介入を覚悟するよう通告した。
ヘグセス長官とAnthropicのCEOであるダリオ・アモデイ(Dario Amodei)との間で行われた火曜日の緊迫した非公開会議を経て激化したこの対立は、AIシステムに組み込まれた倫理的な「ガードレール(guardrails)」に関する根本的な意見の相違を中心に展開している。ペンタゴンは、自律型兵器や国内監視へのソフトウェア使用を制限する条項を撤廃しない限り、国防生産法(Defense Production Act: DPA)を発動するか、Anthropicを「サプライチェーン・リスク(supply chain risk)」—同社を連邦市場から事実上ブラックリストに載せる可能性のある指定—に認定すると脅している。
Creati.aiでは、この膠着状態を注視している。これは、シリコンバレーの安全性重視のAIラボと、米国国家安全保障機構の運用的要請との間の、これまでで最も重大な衝突を象徴しているからだ。
紛争の核心にあるのは、軍事利用のための利用規約の修正を拒否するAnthropicの姿勢だ。Anthropicは国防総省と2億ドルの契約を締結しており、そのClaudeモデルは現在、機密扱いのペンタゴン(Pentagon)ネットワークでの使用が承認されている唯一の大規模言語モデル(Large Language Model: LLM)であるが、同社はその技術がどのように配備されるかについて、強固な「レッドライン(red lines)」を引いている。
具体的には、Anthropicは以下の用途でのClaudeの使用を制限している:
ヘグセス長官と国防総省の当局者は、これらの民間企業の制限は国家安全保障にとって不要な障害であると主張している。国防総省の立場は、その作戦はすでに合衆国憲法と連邦法によって統治されており、Anthropicの追加の倫理層は冗長で妨害的なものであるというものだ。
火曜日の会議に詳しい情報筋によると、ヘグセス氏はアモデイ氏に対し、軍は「思想的な制約」なしに「あらゆる合法的な目的」のためにClaudeへのアクセスを必要としていると明言した。これは、軍事AIシステムが致死的で妨げられないものであることを確実にするというヘグセス氏のより広範なイニシアチブと一致しており、彼は今年初めにペンタゴンの「AIはウォーク(woke)にはならない」という宣言でその姿勢を要約している。
Anthropicに突きつけられた脅しは、商用AI分野において前例のないものだ。金曜日の期限が譲歩なく過ぎた場合、ペンタゴンは2つの潜在的な行動方針の概要を示しており、そのどちらもAnthropicのビジネスモデルに壊滅的な影響を与えることになる。
1950年の国防生産法(Defense Production Act)は、大統領に対し、国内産業に政府契約を優先させ、国家防衛のために資源を割り当てるよう強制する広範な権限を与えている。歴史的には戦時中やCOVID-19パンデミックのような緊急時に使用されてきたが、ソフトウェア会社に製品の安全性コードを「変更」させるためにDPAを発動することは、斬新な法的適用となるだろう。本質的に、政府はAnthropicに対し、同社の安全憲法を無効にして、検閲されていないバージョンのClaudeを提供するよう法的に義務付けることができる。
さらなる打撃となる可能性があるのは、Anthropicを「サプライチェーン・リスク(supply chain risk)」として指定するという脅しだ。この指定は通常、外国の敵対勢力や侵害された事業体(ファーウェイやカスペルスキーに対して取られた措置と同様)に対して留保されるものである。
Anthropicに適用された場合、このラベルは以下を意味する:
ペンタゴンの要求の緊急性は、最近の運用上の摩擦に関連しているようだ。報告によると、米軍は2026年1月の特殊作戦による急襲でClaudeを利用し、ベネズエラのニコラス・マドゥロ(Nicolás Maduro)大統領の拘束に成功した。作戦は成功したが、その後、AIの使用がAnthropicの使用ポリシーに違反したかどうかを巡って紛争が生じ、当局者が「信頼の欠如」と表現する事態に至った。
さらに、軍事AIの状況は急速に変化している。Anthropicが躊躇している間に、競合他社がその空白を埋めようと動いている。イーロン・マスク(Elon Musk)のxAIは、ペンタゴンの「あらゆる合法的な使用」という条件に同意したと報じられており、そのモデルは最近、機密業務への使用が許可された。同様に、OpenAIとGoogleも防衛予算のより大きなシェアを求めて積極的に競い合っている。
Anthropicにとって、このジレンマは死活問題だ。CEOのダリオ・アモデイ氏は、同社の評判を「安全性第一」の開発の上に築いてきた。自律型兵器化の要求に屈することは、核となる研究スタッフを遠ざけ、設立時のミッションに矛盾することになる。しかし、クライアントとしての米国政府を失い、DPAに直面することは、同社の財務状況と市場アクセスを損なう可能性がある。
今週金曜日の期限の利害関係を明確にするため、対立する立場を以下にまとめた。
表:ペンタゴンの要求対Anthropicのポリシー
---|---|----
核心的な要件|ペンタゴンの立場|Anthropicの立場
使用制限|戦闘アプリケーションを含む「あらゆる合法的なユースケース」を要求。|自律的な標的選定と大量監視を禁止。
監視|米国法、憲法、および指揮系統に依存。|内部の「憲法AI(Constitutional AI)」安全性プロトコルに依存。
人間の制御|法的に許可されていれば、自律型システムにも寛容。|すべての致死的な決定に「ヒューマン・イン・ザ・ループ(人間による介在)」を要求。
不履行の結果|国防生産法(DPA)の発動、サプライチェーンのブラックリスト化。|2億ドルの契約を失う可能性、レピュテーション・ダメージ。
ステータス|ベンダーの制約のない「運用の優位性」を追求。|「責任あるスケーリング」と倫理的境界線を擁護。
この膠着状態の結果は、米国政府と民間AIセクターとの関係に永続的な前例を作ることになるだろう。もしペンタゴンがDPAを使用して安全ガードレールを取り除くことに成功すれば、防衛に使用されるAIモデルの倫理基準を事実上国有化することになる。民間企業は、道徳的異議に基づいて特定の軍事利用へのサービスを拒否する権利を保持できなくなるだろう。
逆に、もしAnthropicがその線を守り抜き、余波を乗り切れば、トップクラスのAI能力は依然として売り手市場であり、提供者が関与の条件を決定できることが確立される。
金曜日の期限は重要な岐路となる。テクノロジー業界は、国家安全保障が企業のポリシーを積極的に圧倒するバイデン・トランプ政権移行期のダイナミクスが、シリコンバレーで最も理想主義的なプレイヤーの決断を強いることになるのかを見守っている。現状では、Anthropicはその知能を戦争の機械に完全に統合することに抵抗している唯一の主要な研究所である。週末までには、その区別はもはや存在しなくなるかもしれない。
Creati.aiは、期限が近づくにつれて、このニュースを更新し続ける。