
シリコンバレーの安全重視の人工知能(AI)研究所と米軍との関係を根本的に断絶させる動きとして、ピート・ヘグセス(Pete Hegseth)国防長官は、Anthropicを「国家安全保障に対するサプライチェーンのリスク」として正式に指定した。金曜夜に発表されたこの指定により、このAI企業と連邦政府との関係は事実上断たれ、数万の国防請負業者がその技術を使用することが禁止される。
この前例のない行動は、Anthropicのリーダーシップとペンタゴン(現政権は陸軍省(Department of War)と呼称)との間での、戦闘におけるAIの倫理的境界を巡る劇的な対立を受けたものである。指定を受け、ドナルド・トランプ(Donald Trump)大統領は、すべての連邦機関に対し、同社の主力モデルであるClaudeを含むAnthropic製品の使用を「直ちに停止」するよう指示し、6ヶ月間の厳格な段階的廃止期間を設けた。
「今週、Anthropicは傲慢と裏切りの見本を示した」と、ヘグセス氏はX(旧Twitter)で述べ、午後5時1分の最後通告が期限切れとなったわずか数時間後に禁止を発表した。「米軍と取引を行う請負業者、供給業者、またはパートナーは、Anthropicといかなる商業活動も行ってはならない。」
この指定は、アメリカの国防産業基盤に対して、Claudeを捨てるか、政府契約を失うかという二者択一を迫るものである。これは歴史的にファーウェイ(Huawei)やカスペルスキー(Kaspersky Lab)のような外国の敵対勢力に適用されてきた分類であり、アメリカの一流AI研究所がこれほど厳しい仕組みの標的となったのは初めてのことである。
紛争の中心は、AIモデルの運用方法を規定する「利用規約(AUP:Acceptable Use Policy)」に関する根本的な意見の相違にある。数ヶ月間、Anthropicと国防当局との交渉は、同社が設定した2つの譲れない「レッドライン(最優先の境界線)」を巡って停滞してきた。
国防当局は、これらの制限は国家安全保障上のニーズと相容れないと主張し、Anthropicに対して「あらゆる合法的目的」のための「無制限のアクセス」を軍に認めるよう要求した。
AnthropicのCEOであるDario Amodei氏は屈服を拒否した。指定直後に発表された声明の中で、アモデイ氏は現在のフロンティアモデル(Frontier models)は、致死的な自律性を委ねるほど信頼性が高くないと主張した。「私たちは良心に照らして、彼らの要求に応じることはできない」とアモデイ氏は述べた。「現在のモデルをこのように使用することを許可すれば、アメリカの戦闘員や民間人を危険にさらすことになるだろう。」
内部関係者によると、摩擦は2026年1月に沸点に達したという。ベネズエラでの米軍の作戦中に、パランティア(Palantir)のソフトウェアと連携してClaudeが活用されたという報告を受けた後のことだ。ニコラス・マドゥロ(Nicolás Maduro)の拘束につながったこの作戦は、自社の技術が軍のオペレーターによってどのように解釈されているかについてAnthropic内部で警戒心を引き起こし、より厳格なガードレール(安全策)を適用するという同社の決意を固めさせたと報じられている。
Anthropicがブラックリストに載せられたことの影響は即座に現れ、主要な競合他社によって鮮明に示された。Pentagonの発表からわずか数時間後、OpenAIは機密ネットワーク内に同社のモデルを配備するための国防総省との新たな合意に達したことを認めた。
OpenAIのCEOであるサム・アルトマン(Sam Altman)氏は、合意には「技術的なセーフガード」と人間の責任に関する原則が含まれていると述べたが、そのタイミングは業界における明確な分岐を示唆している。市場は現在、無制限の軍事利用という「ヘグセス・ドクトリン(Hegseth Doctrine)」に完全に歩調を合わせる陣営と、独立した倫理的制御を維持しようとする陣営の、2つの異なるキャンプに分かれつつある。
以下の表は、この歴史的な分裂を招いた政策上の相違をまとめたものである。
政策姿勢の比較
| 特徴 | Anthropicの立場 | 国防総省 / ヘグセス氏の要求 |
|---|---|---|
| Autonomous Weapons | 厳格に禁止(信頼性を理由に) | 許可(「あらゆる合法的目的」) |
| 国内監視 | 厳格に禁止(市民の自由) | 許可(国家安全保障の優先事項) |
| 契約状況 | Supply Chain Riskに指定 | 「無制限のアクセス」を追求 |
| 運用管理 | ベンダー定義のガードレール | 政府定義のパラメータ |
ヘグセス長官のレトリックは、この紛争を単なる契約上の不一致ではなく、イデオロギーの戦いとして位置づけている。Anthropicを「急進左派の、目覚めた(Woke)企業」とレッテルを貼ることで、政権は軍の要求に従わないことを愛国心の欠如として扱うというシグナルを送っている。
これにより、主要な国防請負業者は不安定な立場に置かれることになる。ロッキード・マーティン(Lockheed Martin)、ボーイング(Boeing)、ノースロップ・グラマン(Northrop Grumman)といった企業(その多くはコーディング、物流、分析にさまざまなAIモデルを利用している)は、Claudeが完全に排除されていることを確認するためにサプライチェーンの監査を行わなければならない。命令は「商業活動」を禁じており、これは広義の用語であるため、人事部がメールの起案にClaudeを使用したり、エンジニアリングチームが機密ではないコード生成に使用したりした場合、理論的には国防請負業者が罰せられる可能性がある。
法務専門家は、通常「連邦調達サプライチェーンセキュリティ法(FASCSA)」などの権限の下で使用される「サプライチェーンのリスク」指定は、諜報活動や妨害工作から保護するために設計されたものであり、政策上の相違を理由に国内企業を罰するためのものではないと警告している。
Anthropicはこの指定を「法的に不当」であるとして、法廷で争うことを誓った。同社は、単に利用規約の変更を拒否したという理由だけで、アメリカの民間企業を連邦政府のサプライチェーン全体から排除する法定権限はペンタゴンにはないと主張している。
「この指定は……政府と交渉するいかなるアメリカ企業にとっても危険な前例になると信じている」とAnthropicは述べた。同社は、政府がその買い手独占(モノプソニー)力を利用して、企業の設立時の憲法上の原則に違反するような言論やコードの使用を強制しようとしていると主張している。
しかし、裁判所は歴史的に、国家安全保障に関する事項については行政府に広い裁量を認めてきた。裁判官が介入するまで禁止は継続され、世界で最も先進的なAIシステムの一つが公共部門から事実上締め出され、軍事AIの魂を巡って急速に激化する争いの中で、テック業界全体がどちらの側につくか選択を迫られることになる。