
企業のライバル関係を超えた、業界横断的な異例の連帯として、GoogleとOpenAIの従業員が、米国国防総省との緊迫した対立においてAnthropicを支援するために協力しました。2026年2月27日金曜日、Google DeepMindの300人以上の従業員とOpenAIの60人以上の従業員が、「We Will Not Be Divided(私たちは分断されない)」と題された公開書簡に署名し、高度なAIモデルへの無制限のアクセスを求めるペンタゴンの要求に対して断固とした態度をとるよう、それぞれの経営陣に促しました。
この共同行動は、人工知能(AI)の軍事利用をめぐる現在進行中の議論における重要な転換点となります。これは、倫理的なガードレールを維持しようとするフロンティアAIモデルの開発者と、これらの技術を「戦時の軍拡競争」における重要な資産と見なす国防当局者との間の溝が深まっていることを浮き彫りにしています。ペンタゴンが国防生産法(Defense Production Act)を発動して遵守を強制すると脅す中、テック業界の労働力は、自律型兵器や国内監視に関する倫理的な「レッドライン(譲れない一線)」は交渉の余地がないという信号を送っています。
この論争の核心にあるのは、Claudeモデルの「無制限の使用」を求めるペンタゴンの要求に応じるための利用規約の修正を、Anthropicが拒否したことです。ダリオ・アモデイ(Dario Amodei)CEO率いるAnthropicは、政府との契約において一貫して次の2つの具体的な禁止事項を維持してきました。
ピート・ヘグセス(Pete Hegseth)国防長官が代表を務める国防総省は、Anthropicに対してこれらの特定の制限を放棄し、「すべての適法な目的」を認めるよう要求したと報じられています。ペンタゴンは不法な監視を行う意図はないと断言していますが、契約書に「適法な」使用を制限する文言があることは運用の脆弱性を生み出し、軍事能力に対するベンダーの管理という危険な前例を作ると主張しています。
GoogleとOpenAIの従業員による公開書簡は、Anthropicの立場を明確に支持しています。「私たちのリーダーたちが相違点を脇に置き、一致団結して、国防省の現在の要求を拒否し続けることを願っています」と書簡には記されています。署名者たちは、政府による圧力キャンペーンは、企業同士を対立させることで業界の倫理的コンセンサスを分断するように設計されていると主張しています。
2026年2月下旬、ペンタゴンがAnthropicに対して最後通牒を突きつけたと報じられ、対立は大幅に激化しました。金曜日の期限までに従わない場合、**国防生産法(DPA)**が発動される可能性があります。これは冷戦時代の法律で、大統領が民間企業に対し、国家防衛契約を優先するよう強制することを可能にするものです。
さらに、国防当局者は、要求に応じない場合、Anthropicを「サプライチェーンのリスク」とラベル付けすると脅しています。この指定は通常、米国の利益に敵対的と見なされる外国の実体(特定の中国の通信会社など)に対して行われるもので、事実上Anthropicを連邦政府の調達からブラックリストに載せ、商業的評判を傷つける可能性があります。
公開書簡は、これらの戦術を報復的であると非難しています。「国防省は、Anthropicがレッドラインを守っていることへの報復として、国防生産法の発動をちらつかせています」と本文には記されています。従業員たちは、もしペンタゴンがAnthropicを屈服させることに成功すれば、次はGoogleやOpenAIに矛先を向け、標準化という名目で残されたセーフガードの撤去を要求するだろうと警告しています。
従業員の書簡の主要なテーマは、ペンタゴンが「分断して統治せよ(divide and conquer)」戦略を利用しているという告発です。Google、OpenAI、そしてAnthropicと個別に交渉することで、国防総省は「囚人のジレンマ」を作り出しています。各企業は、自社が倫理基準を固持すれば、競合他社が降伏して有利な政府契約を獲得することを恐れています。
「彼らは、他社が屈するのではないかという恐怖心を利用して、各社を分断しようとしています」と書簡は説明しています。「その戦略は、私たちがお互いの立ち位置を知らない場合にのみ機能します。」
この懸念は根拠のないものではありません。OpenAIとGoogleは以前、「非機密」の軍事利用に関する交渉において、より柔軟な姿勢を示していたという報告があります。2024年初頭、OpenAIは利用規約から「軍事および戦争」に関する明示的な禁止項目を密かに削除し、表面上は軍とのサイバーセキュリティや災害救助の協力を可能にするために、より一般的な「害」の禁止に置き換えました。しかし、無制限の致死的な自律性と監視能力を求める現在の要求は、これらより寛容な企業の従業員にとっても、許容範囲を超えているようです。
この紛争の状況を理解するためには、主要なAI研究所の軍事統合に関する現在の公的な立場を比較することが不可欠です。
表:主要なAI研究所と軍事政策の立場
| 企業名 | 軍事利用に関する核心的な立場 | 具体的な「レッドライン」 | ペンタゴンとの関係の現状 |
|---|---|---|---|
| Anthropic | 厳格な条件付き協力 | 交渉不可: 国内監視の禁止。 交渉不可: 自律型致死兵器の禁止。 |
敵対的: DPA発動と「サプライチェーンのリスク」指定の脅威に直面。 |
| OpenAI | 協力的 / 進化中 | 一般的に自律型兵器に反対。 2024年に「国家安全保障」利用を許可するよう方針を転換。 |
交渉中: サム・アルトマン(Sam Altman)CEOはAnthropicと同様のセーフガードを求めていると報じられている。 |
| 慎重 / 内部の緊張 | AIの原則(2018年): 人権を侵害する兵器や監視は行わない。 主な目的が危害を加えることである技術を禁止。 |
緊迫: 従業員が2018年の公約を守るよう経営陣(ジェフ・ディーン)に圧力をかけている。 | |
| Microsoft | 戦略的パートナー | 顧客(国防総省)の適法性に準拠。 機密モデルのためのインフラを提供。 |
統合済み: Azure/OpenAIパートナーシップを通じて防衛インフラに深く組み込まれている。 |
今回の活動の波は、2018年のGoogleの「Project Maven」論争と直接的な類似点があります。当時、何千人ものGoogle従業員が、ドローンの映像分析にAIを使用するペンタゴンとの契約に抗議する請願書に署名し、最終的に会社に契約を失効させ、兵器へのGoogle AIの使用を禁じる「AIの原則」を発表させました。
しかし、2026年の地政学的状況は著しく異なります。世界的なAI競争の激化とライバル国からの脅威が認識される中、「主権AI」能力を配備する圧力が高まっています。「We Will Not Be Divided」の書簡は、テック業界の労働者が、2018年の倫理的勝利が侵食されつつあることを痛感していることを示唆しています。
「この書簡は、この圧力に直面して共通の理解と連帯を生み出すためのものです」と従業員は書いています。この連合には、戦争におけるAIの配備には厳格な人間の責任が必要であると主張するエンジニア、研究者、政策担当者が含まれています。これは、完全な自律型システムが本質的に欠いている特徴です。
企業経営陣の反応はまちまちですが、圧力が効いていることを示しています。書簡の公開後、OpenAIのサム・アルトマンCEOがスタッフに対し、彼もまたAnthropicのレッドラインと同様の合意をペンタゴンと模索していると述べたという報告が浮上しました。これは、従業員が求めた「統一戦線」が経営レベルでも形成されつつある可能性を示唆しています。
Googleでは、内部の圧力はGoogle DeepMindのチーフサイエンティストであるジェフ・ディーン(Jeff Dean)に向けられています。100人以上のGoogleスタッフが署名した別の内部書簡は、GoogleがAnthropicの立場を損なわないようにすることを特に求めています。
GoogleとOpenAIの従業員による支持によって増幅されたAnthropicとペンタゴンの対立は、テクノロジーガバナンスの歴史における重大な局面を表しています。それは根本的な問いを投げかけています。「強力なAIがどのように使用されるかを最終的に決定するのは誰か。資金を提供する政府か、それともそのリスクを理解している創造者か」。
もしペンタゴンが国防生産法を利用してAnthropicを屈服させることに成功すれば、国家安全保障上の利益が民間部門の倫理的公約に優先するという前例を作ることになります。逆に、テック業界の労働者の「統一戦線」が維持されれば、戦争においてさえ、人工知能の配備には境界線が必要であることを軍に認めさせることになるかもしれません。
金曜日の期限が過ぎ、業界がペンタゴンの次の動きを注視する中、これら360人以上の従業員が示した連帯は、AI開発における人間的要素が依然として強力な政治的勢力であることを思い出させてくれます。
このレポートは、2026年3月1日までに発生した事象に基づいています。