
シリコンバレーを代表するAI研究所間のイデオロギー戦争が激化する中、AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)氏は、ライバル企業であるOpenAIが「安全性の演出(safety theater)」を行っており、最近の米国防総省(U.S. Department of Defense)との提携に関して「真っ赤な嘘(straight up lies)」を広めていると非難しました。The Informationが報じた内部メモで明らかになったこれらの非難は、AIの安全性に関する業界の協力体制における決定的な亀裂を象徴しており、長年両社の関係を特徴づけてきた表向きの礼儀正しさを打ち砕くものとなりました。
今週Anthropicのスタッフに配布されたこのメモは、OpenAIがペンタゴン(米国防総省)の機密ネットワーク内にモデルを導入するという議論を呼ぶ合意を発表した数日後に出されました。この契約は、Anthropicが倫理的な「レッドライン(red lines)」をめぐる交渉が決裂し、決別したと報じられたわずか数時間後に締結されました。
アモデイ氏の内部コミュニケーションには、企業間の外交的な儀礼は見られません。報道によると、同氏は特にOpenAIのCEOであるサム・アルトマン(Sam Altman)氏によるペンタゴンとの契約に関する公の場での説明を標的にしました。アルトマン氏は、この合意を責任あるAI導入の勝利であるとし、OpenAIが自律型兵器や国内監視に対する厳格なセーフガード(safeguards)の交渉に成功したと主張していました。これらは、Anthropicが確保に失敗したとされる条件です。
「我々は、従業員のために『安全性の演出』を作り出そうと政府と結託するのではなく、誠実さをもって自らのレッドラインを守り抜いたのです」と、アモデイ氏は記したとされています。さらに同氏は、アルトマン氏のナラティブを「真っ赤な嘘」であり、混沌とした規制環境の中で「自らを平和の仲介者(peacemaker)として見せようとする偽りの試み」であると評しました。
アモデイ氏の不満の核心は、OpenAIが制定したと主張する「セーフガード」の実態にあるようです。Anthropicがペンタゴンの条件を拒否したのは、大規模な国内監視や完全自律型の致死性ターゲティングへのAI利用を契約で禁止できなかったためですが、批判者たちは、OpenAIの契約は単に「既存の法律」への準拠を求めているに過ぎないと主張しています。プライバシー擁護派は、この基準は契約による禁止よりもはるかに抜け穴が多いと警告しています。
これらの出来事のタイミングが、対立の激しさに拍車をかけています。2026年2月後半、Anthropicと陸軍省(Department of War)(旧国防総省(Department of Defense))の間の交渉が決裂しました。Anthropicは、譲れない2つの条件を固守しました:
ペンタゴンはこれらの条件を拒否しました。強権的な報復措置として、同省はAnthropicを「サプライチェーン・リスク(supply-chain risk)」とラベル付けし、事実上、連邦政府による同社の技術利用を禁止しました。
それから24時間も経たない金曜日の夜、サム・アルトマン氏は、まさに同じ機関とのOpenAIのパートナーシップを発表しました。アルトマン氏はその後の投稿で、契約が「急ぎすぎ」で「ずさん」であったことを認めましたが、OpenAIは必要な倫理的ガードレールを確保したと主張し続けました。アモデイ氏のメモは、OpenAIが有利な契約を獲得するために政府の要求に屈服しただけであり、その屈服を「戦略的妥協」として再パッケージ化したに過ぎないことを示唆しています。
以下の表は、2026年3月時点での軍事協力に対する両社の対照的なアプローチをまとめたものです。
| 軍事協力に対する姿勢 | Anthropic | OpenAI |
|---|---|---|
| 主要な倫理的「レッドライン」 | 大規模監視および自律型兵器のターゲティングに関する契約上の禁止。 | 「既存の法律」および「人間の責任」に関するポリシーへの依存。 |
| ペンタゴンとの交渉結果 | 契約を拒否。国防総省(DoD)により「サプライチェーン・リスク」に指定。 | 機密ネットワークへの導入に関する契約を締結。 |
| CEOによる公の説明 | 「抑制のない政府権力」に警告を発し、「良心に従って同意する」ことを拒否。 | セーフガードの交渉成功を主張。後にプロセスが「ずさん」であったと認める。 |
| 従業員の反応 | 内部の連帯。CEOの拒否を支持する公開書簡。 | 深刻な不安。「信頼」問題を理由にトップ研究者が離脱。 |
| 政府ネットワークでのステータス | 禁止・制限。 | 機密導入が承認済み。 |
侮辱に追い打ちをかけるように、このイデオロギーの裂け目は人材の流出として現れ始めています。OpenAIの研究リーダーシップにとって大きな打撃となったのは、研究担当バイスプレジデントのマックス・シュワルツァー(Max Schwarzer)氏がAnthropicに移籍するために辞任したことです。OpenAIのポストトレーニングおよび推論チームの主要人物であるシュワルツァー氏は、X(旧Twitter)で自身の去就を発表し、「私が最も信頼し尊敬する人々の多くが、ここ数年でAnthropicに加わっている」と述べました。
シュワルツァー氏の離脱は孤立した事件ではなく、安全性を重視する研究者が、Anthropicを信念に基づいたAI開発の最後の砦と見なして移籍するという、拡大するパターンの一部です。この「頭脳流出」は、OpenAIが商業的および政府的支配を追求する中で道徳的な羅針盤を失いつつあるというアモデイ氏の内部的なナラティブを裏付けています。
アモデイ氏とアルトマン氏の紛争は、単なる個人的な反目ではありません。それはAIガバナンス(AI Governance)の哲学における分断を表しています。OpenAIの「現実主義的(pragmatic)」なアプローチは、軍との関与は避けられないものであり、米国の企業が内部から導入の形を整える方が良いと主張しています。一方、Anthropicの「原則主義的(principled)」な姿勢は、たとえ巨額の政府契約を犠牲にしても、テック企業は国家権力を抑制する役割を果たさなければならないと説いています。
OpenAIが嘘をついていると非難することで、アモデイ氏は協力的な「協調的競争(co-opetition)」の時代が終わったことを告げています。ペンタゴンが生成AI(Generative AI)を自らのキルチェーン(kill chains)や監視装置に組み込む中、業界は最も優秀な頭脳に対し、現実主義的な協力者か、それとも拒絶する良心的兵役拒否者か、どちらの側につくかを選択させています。現在のところ、陸軍省はOpenAIを選択しましたが、未来を築く研究者たちは自身の足で投票を行っているようです。