
人工知能業界にとっての重大な局面において、Anthropicは米国国防総省の「最終的かつ決定的な」契約案を公然と、かつ明確に拒絶した。2026年2月26日にダリオ・アモデイ(Dario Amodei)CEOによって下されたこの拒絶は、AIブームが始まって以来のシリコンバレーとワシントンD.C.間の最も深刻な衝突の一つとなった。紛争の核心にあるのは、Anthropicの主力モデルであるClaudeを自律型致死兵器システム(Lethal Autonomous Weapons Systems)や国内大規模監視網に配備することに対する根本的な意見の相違である。
数ヶ月にわたり水面下で続けられていたとされる交渉は、アモデイ氏が「我々は良心に照らしてこの要求に同意することはできない」とする声明を発表したことで、公の場にさらされることとなった。この動きにより、AnthropicはトップクラスのAI研究所の中で唯一の主要な拒絶者としての立場を明確にし、地政学的緊張が高まる時代におけるAIアライメント(AI Alignment)、政府の行き過ぎた介入、そして民間技術企業の独立性の未来について、重大な問いを投げかけている。
交渉に近い関係者によると、ペンタゴン(米国国防総省)の最終的な提案は、単なる標準的な調達契約ではなく、包括的な統合フレームワークであった。国防総省(DoD)は、次世代の戦闘システムを動かすために、Claudeのソースコードと重み付け(Weightings)への無制限のアクセスを求めていた。
意見の不一致の核心は、Anthropicの「憲法的AI(Constitutional AI)」の原則に違反する2つの具体的なユースケースに集中している:
アモデイ氏の拒絶は断固としたものだった。Anthropicのスタッフに送られ、後にメディアに共有されたメモの中で、彼はClaudeをこれらの目的で使用することを許可すれば、「我々が長年かけて構築してきた安全ガードレール(Safety Guardrails)を、取り返しのつかない形で損なうことになる」と強調した。
おそらく、この対立の最も懸念すべき側面は政府の対応である。拒絶を受けて、ペンタゴンの当局者は1950年の**国防生産法(Defense Production Act)**(DPA)を発動すると脅していると報じられている。もともと朝鮮戦争中に工業材料の供給を確保するために設計されたDPAは、国防に必要とみなされる政府契約を優先するよう企業に強制する広範な権限を大統領に与えるものである。
DPA執行による潜在的な影響:
法の専門家は、この種のソフトウェアや知的財産に対してDPAを発動することは、前例のない憲法上の法廷闘争を引き起こし、民間のイノベーションに対する政府の権限の限界を試すことになると警告している。
Anthropicの拒絶は、AI業界内で広がる亀裂を浮き彫りにしている。Anthropicが「安全第一」の理念を堅持する一方で、競合他社は地政学的なライバルに対する米国の技術的優位性の必要性を挙げ、異なる道を歩んでいる。
以下の表は、主要なAI研究所の軍事統合に関する現在の姿勢を比較したものである:
主要AI研究所の軍事に関する姿勢の比較(2026年2月時点)
| 組織 | 軍事契約に関する基本姿勢 | 主な制限事項 |
|---|---|---|
| Anthropic | 致死的・監視目的の使用を全面拒絶 | 自律型兵器および大規模監視の統合を禁止 |
| OpenAI | 条件付き協力 | 「国家安全保障」目的の使用を許可。致死的自律性については曖昧 |
| Google DeepMind | 制限付きパートナーシップ | Project Mavenの制限が適用。物流・サイバー防衛に焦点 |
| Palantir | 完全な統合 | 致死的ターゲティングおよび監視プラットフォームを積極的に構築 |
| Microsoft | 戦略的提携 | 国防総省にインフラやLLMを提供。非致死的義務はしばしば免除される |
この相違により、Anthropicは不安定な財務状況に置かれることになるが、安全性を重視する企業クライアントや倫理的な投資家の間ではブランドを強化することになる。
ダリオ・アモデイ(Dario Amodei)氏の「良心に照らして同意することはできない」という言葉は、2018年にGoogle内部で起きたProject Mavenに対する反乱で使われた言葉を彷彿とさせるが、2026年におけるリスクは格段に高まっている。Claude 5のような現在のフロンティアモデル(Frontier Models)の能力は、10年前のコンピュータビジョンツールをはるかに凌駕している。
倫理的枠組み vs 国家の必要性
ペンタゴンは、米国が最高のAIを利用できなければ、そのような倫理的制約のない敵対国に遅れをとるリスクがあると主張している。国防当局者は、Anthropicの拒絶を「世間知らず」であり、国家利益にとって「潜在的に危険」であると批判している。
しかし、Creati.aiのアナリストは、Anthropicはより長期的な視点に立っていると示唆している。憲章を厳格に遵守することで、同社はアライメント研究の完全性を保っている。もしClaudeが致死性のために再学習されれば、ビジネス利用においてモデルの信頼性を支えている「役に立ち、正直で、無害(Helpful, Honest, and Harmless)」という制約が根本から不安定になり、軍事以外のアライメントでも予測不可能な行動を招く可能性がある。
サンフランシスコにあるAnthropic本社の内部からの報告によると、決定後の士気は高いが、DPAの脅威に関する不安も依然として強い。「人を傷つけるためにこれを作ったのではない」と、あるシニアリサーチャーは匿名を条件にCreati.aiに語った。「もしその一線を越えてしまえば、我々はただの防衛請負業者になってしまう。」
事態が進展する中、テクノロジー業界は、バイデン=ハリス政権が国防生産法の執行という脅しを実行に移すかどうかに注目している。そのような動きはオープンソースコミュニティを萎縮させ、AI開発をアンダーグラウンドや海外へと追いやる可能性がある。
現在のところ、Anthropicは抵抗を続けている。ペンタゴンの最終提案の拒絶は、単なる契約上の紛争以上の意味を持つ。それは超知能システム(Superintelligent Systems)の統治可能性を問う試金石である。もし民間企業が倫理的根拠に基づいて世界最強の軍隊を拒絶することに成功すれば、安全と道徳が依然として技術進歩の軌道を左右しうるという前例を作ることになる。
今後数週間が極めて重要になるだろう。ペンタゴンはその空白を埋めるためにPalantirやOpenAIのような競合他社へと舵を切るのか、それとも法的強制を通じてAnthropicに首を縦に振らせるのだろうか。Creati.aiのチームは、この結末が今後数十年にわたるAIと国家の関係を規定することになるため、この進展し続けるストーリーを引き続き注視していく。