
シリコンバレーとワシントンの間で緊張が歴史的な高まりを見せる中、AI分野の有力企業であるAnthropic(アンソロピック)は、アメリカ政府に対して正式に訴訟を提起しました。この法的措置は、現政権が「戦争省(Department of War)」と呼ぶ国防総省が、サンフランシスコに拠点を置く同社を「サプライチェーン・リスク」として正式に指定した数日後に行われました。歴史的に敵対国に関連する外国企業に限定されてきたこの指定が、アメリカのテクノロジー企業に対して行われたのは今回が初めてであり、国家安全保障(national security)における人工知能の未来をめぐる決定的な法的紛争の舞台が整いました。
AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)氏によって発表されたこの訴訟は、指定の取り消しを求める即時差し止め命令を求めています。アモデイ氏は、政府の動きを「法的根拠に欠ける」ものであり、同社に倫理的な安全ガードレールを放棄させるための懲罰的な措置であると特徴づけています。紛争の核心にあるのは、AIの軍事利用に関する根本的な意見の相違です。国防総省(Pentagon)がテクノロジーの「あらゆる合法的利用」を要求しているのに対し、Anthropicは、同社のClaude(クロード)モデルが大量の国内監視や完全自律型の致死兵器システムに配備されることを断固として拒否してきました。
「サプライチェーン・リスク(supply chain risk)」指定の概念は、もともと外国による諜報活動や妨害工作から米国のインフラを保護するために設立されました。これまでの対象には、ファーウェイ(Huawei)やZTEといった中国の通信大手、ロシアのサイバーセキュリティ企業カスペルスキー(Kaspersky Lab)などが含まれていました。元OpenAIの幹部らによって設立され、AIの安全性を使命とするAnthropicにこのラベルを適用することは、米国の防衛政策における劇的な転換を意味します。
2026年3月4日に出された指定の条件に基づき、国防総省(Department of Defense)は、請負業者やパートナーが軍事関連の業務にAnthropicのテクノロジーを利用することを事実上禁止しています。ピート・ヘグセス(Pete Hegseth)国防長官は、この決定を、米軍が民間企業の「欠陥のある利他主義」によって身動きが取れなくならないようにするための必要な措置であると枠付けました。
申立書の中でアモデイ氏は、政府がAnthropicのシステムにおける実際のセキュリティ脆弱性を何ら証明できていないと主張しています。代わりに同社は、国防総省が引用した「リスク」は技術的なものではなく、イデオロギー的なものであると主張しています。つまり、致死的な意思決定ループから人間の監視を排除するという要求に屈することを拒否したことへの反発であるとしています。
指定の主な影響:
Anthropicと国防総省の決裂は、一夜にして起こったわけではありません。これは、国防契約の更新と拡大に関する数ヶ月にわたる交渉の失敗の結果です。摩擦点は具体的かつイデオロギー的なものです。Anthropicは、人権侵害、拷問、または人間の許可なしに致死力を行使する自動化を含む要求に対して、拒否をハードコードする「憲法的 AI(Constitutional AI)」の原則をモデルに統合しています。
「AIの支配(AI Dominance)」戦略を追求する国防総省は、これらのハードコードされた拒否が運用上のリスクをもたらすと主張してきました。緊迫した戦闘シミュレーションや迅速な諜報分析において、企業の倫理に基づいて命令を疑うAIは負債であると国防総省は論じています。
以下の表は、この行き詰まりを招いた両者の立場の違いをまとめたものです:
立場の比較:Anthropic 対 国防総省
---|---|----
核心的哲学|AI セーフティ(AI Safety)と「憲法的 AI」による制約|支配のための無制限な「あらゆる合法的利用」
レッドライン|大量監視の禁止、自律型兵器の禁止|軍事利用に対する企業による制限の禁止
セキュリティの見解|安全機能が誤用や事故を防ぐ|拒否メカニズムは運用上の負債を生む
契約状況|倫理的免除なしでの署名を拒否|ベンダーを「サプライチェーン・リスク」として指定
結果|行政の越権行為を引用して訴訟を提起|競合他社へのベンダー切り替えに着手
この指定は、米国のテクノロジー部門に衝撃を与えました。法学者や業界アナリストは、国内政策の不一致を罰するためにサプライチェーン当局を利用することは、数十年にわたり米国のイノベーションの原動力となってきた米国政府と民間テック部門との強固なパートナーシップを不安定にする可能性があると警告しています。
「これは調達法の武器化です」と、戦略国際問題研究所(CSIS)のシニア政策アナリストは述べています。「特定の種類の兵器を製造しないという理由だけで、政府が米国企業を国家安全保障上のリスクとしてラベル付けできるのであれば、米国のすべてのデュアルユース(軍民両用)技術企業は今や警戒態勢にあります」。
しかし、Anthropicが残した空白はすでに埋められつつあります。Anthropicと国防総省の関係決裂と時を同じくして、ライバル企業であるOpenAIは国防総省との広範な新しいパートナーシップを発表しました。OpenAIは、モデルのより広範な軍事利用を可能にする条件に同意したと伝えられていますが、同社は誤用に対するガードレールを保持していると主張しています。この分岐はシリコンバレーに断絶した状況を生み出しました。一方は、巨額の政府契約を確保するために防衛上の優先事項に全面的に同調することを厭わない陣営であり、もう一方は、Anthropicに代表されるように、連邦政府のブラックリストに載るという代償を払ってでも倫理的独立性を維持しようとする陣営です。
Anthropicの法的訴状は、行政手続法(APA)およびサプライチェーン・セキュリティに関する特定の規定に基づいています。同社の弁護士は、法律が政府に対し、リスクを軽減するために必要な「制約の少ない手段(least restrictive means)」を用いることを要求していると主張しています。調達規制の「最終手段」である「サプライチェーン・リスク」指定に直ちに踏み切ることで、政府は特定の契約を単に更新しないといった、より軽い救済策を回避しました。
さらに、アモデイ氏は、Anthropicの顧客の大多数には影響がないと公言しています。「これは、Claudeを戦争省との契約の直接的な一部として利用する顧客にのみ適用されるものであり、そのような契約を結んでいる顧客によるClaudeのすべての利用に適用されるわけではありません」と、アモデイ氏は商業顧客向けの安心させるメッセージの中で記しました。それにもかかわらず、外国の敵対国と同じグループに入れられたことによるレピュテーション・ダメージ(評判の低下)は深刻です。
訴訟ではまた、この指定が報復的なものであるとも主張されています。申立書で引用された内部メモは、政権幹部がAnthropicの政治的支援の欠如や、政権の積極的なAI規制緩和政策に対する同社の公然とした批判に不満を抱いていたことを示唆しています。
ケースが連邦裁判所に持ち込まれる中、賭けられているのはAnthropicの政府収入をはるかに超えるものです。この判決は、民間企業に対して軍事作戦への協力を強制する米国政府の権限の範囲を定義することになるでしょう。
もし裁判所が国防総省の指定を支持すれば、国家安全保障の利益がコーポレート・ガバナンスや倫理憲章よりも優先されるという教義が肯定されることになります。もしAnthropicが勝訴すれば、テック企業に法的な盾を提供し、自らの道徳的指針を維持しながら政府市場に参加することを可能にするかもしれません。
今のところ、業界は固唾を飲んで見守っています。その結果は、「AI セーフティ(AI Safety)」が防衛関連企業にとって実行可能なビジネスモデルであり続けるか、あるいは国家の軍事目標への同調が参入の交渉不可能な対価となるかを決定するでしょう。
訴訟に至るまでの出来事のタイムライン:
この紛争は、AI産業の成熟を象徴しています。もはや単なる科学的好奇心や生産性ツールではなく、高度なAIは今や重要な国家資産であり、武器であると見なされています。Anthropicの抵抗は、このテクノロジーの創造者が、国家の意志に反してその最終的な運命に対する支配権を主張しようとする最初の重大な試みとなります。