
人工知能(AI)業界にとっての重大な局面(watershed moment)において、倫理的なAI開発と国防上の急務との間の緊張が、全面的な公的紛争へと発展しました。ペンタゴン(米国国防総省)がAnthropicを国家安全保障に対する「サプライチェーンのリスク」に指定したことを受け、CEOのダリオ・アモデイ(Dario Amodei)氏は、同社が定義する極めて重要な倫理的一線(レッドライン)を越えることを拒否しつつ、「私たちは愛国的なアメリカ人である」と主張する、挑戦的かつ深い国家主義的な回答を発表しました。
トランプ政権とピート・ヘグセス(Pete Hegseth)国防長官が命じた今週の全面的な禁止措置で最高潮に達したこの紛争は、Anthropicが利用規約(Terms of Service)の修正を拒否し、無制限の軍事利用、特に大規模な国内監視や完全自律型致死兵器を許可しなかったことに集中しています。
この紛争は金曜日、国防総省(DoD)がAnthropicに対して最後通牒を突きつけたことで限界点に達しました。軍によるClaudeモデルの利用を制限している安全ガードレールを撤廃するか、ブラックリストに掲載されるかというものです。午後5時1分という期限がAnthropicの屈服なしに過ぎたとき、ヘグセス長官は、国内企業には滅多に適用されない指定を断行し、サプライチェーンの毒性という観点から、このAI大手を事実上、外国の敵対勢力と同等に分類しました。
「アメリカの戦士たちがビッグテックのイデオロギー的な気まぐれに人質に取られることは決してない」とヘグセス氏は宣言し、米国軍と取引を行ういかなる請負業者も、Anthropicとの商業活動を継続することはできないと発表しました。
注目を集めたインタビューとその後の声明の中で、ダリオ・アモデイ氏は、自社が国家安全保障(national security)を妨害しているという物語に反論しました。代わりに、彼はAnthropicの拒否を、アメリカの核心的価値観の防衛として位置づけました。「私たちが行ってきたことはすべて、この国のため、米国の国家安全保障を支援するためでした」とアモデイ氏は述べました。「私たちが引いた一線は、その線を越えることがアメリカの価値観に反すると信じているからこそ引いたものです」。
不一致の核心は、Anthropicがその責任あるスケーリング・ポリシー(RSP:Responsible Scaling Policy)と利用規約において、政府のクライアントに対しても一貫して禁止してきた2つの特定のユースケースにあります。
現在の政権下で「戦争省(Department of War)」へとリブランディングされたペンタゴンは、これらの制限は軍事作戦に対する「拒否権」に相当すると主張しています。国防当局者は、国内のテック部門からそのような倫理的制約を受けていない中国のような敵対国に対して優位性を維持するために、技術の「あらゆる合法的な利用」が必要であると主張してきました。
Anthropicを「サプライチェーンのリスク(supply chain risk)」として分類することは、ペンタゴンをはるかに超えて影響を及ぼす過酷な経済措置です。この指定は、Anthropicと国防総省(DoD)との間の直接的な契約を打ち切るだけではありません。国防産業基盤全体に波及効果をもたらします。
主要な国防請負業者やテクノロジーパートナー(軍事契約を提供している場合、AWSやGoogle Cloudなどのクラウドプロバイダーも含まれる可能性があります)は、自らの政府内での地位を守るために、Anthropicとの関係を断つよう法的な圧力を受けています。最近、約3,800億ドルと評価され、株式公開の可能性に備えていたAnthropicにとって、この動きは遵守を強制するために設計された、存亡に関わる財務的な脅威となります。
「これは報復的で懲罰的なものです」とアモデイ氏は記者団に語り、同社が裁判所でこの指定を争う意図があることを示唆しました。法学の専門家は、通常は敵対国のハードウェアに適用されるサプライチェーン・リスクの枠組みを、政策上の意見の相違を理由に米国のソフトウェア企業に適用することは前例がなく、重大な司法審査に直面する可能性があると指摘しています。
この禁止措置は国防AIセクターに即座に空白を生み出し、競合他社が素早くその穴を埋めています。指定が発表された数時間後、OpenAIはペンタゴンとの新たなパートナーシップを認め、より広範な軍事利用を可能にする条件に同意しました。
この乖離は、AI業界における大きな分岐点となっています。一方は現政権の「無制限戦争」の要件に厳密に従う者、もう一方は独立した倫理的ガバナンスを維持しようとする者です。
表:AI国防の分断
| 請負業者 | 自律型兵器に対する立場 | 大規模監視(Mass Surveillance)に対する立場 | ペンタゴンでのステータス |
|---|---|---|---|
| Anthropic | 厳格に禁止 技術的な信頼性の欠如と倫理的リスクを引用。 |
厳格に禁止 市民の自由の侵害と見なす。 |
禁止 「サプライチェーンのリスク」に指定 |
| OpenAI | 許可 「合法的な利用」の枠組みの下。 |
許可 国防総省(DoD)の要件に準拠。 |
活動中のパートナー 2026年2月に新契約を締結 |
| Palantir | 完全統合 致死的な自律性に対する長年の支援。 |
完全統合 主要製品の機能。 |
活動中のパートナー 主要な国防統合者 |
アモデイ氏の弁護は、現在の大型言語モデル(LLM)の技術的現実に大きく依拠しています。道徳的な議論を超えて、Anthropicは、殺傷を伴うシナリオにおいて技術が「人間の介在(human-in-the-loop)」を外れる準備がまだできていないと主張しています。
「私たちは独裁的な敵対者を打ち負かすことを信じています」とアモデイ氏は明言しました。「しかし、ハルシネーションを起こしたり、容易にジェイルブレイク(脱獄)されて自律的なキルチェーンに組み込まれたりするシステムを配備することは、アメリカをより安全にするものではありません。それは混沌という新たなベクトルを導入するだけです」。
この「安全性こそがセキュリティである」という議論は、真の愛国心とは、誤射や意図しないエスカレーション、あるいは戦争犯罪を招きかねない未熟な技術の配備を防ぐことにあると説いています。しかし、政権はこの慎重さを妨害主義と見なし、「責任あるスケーリング」を、アメリカの軍事近代化を遅らせる「ウォーク(woke)」的な躊躇の婉曲表現であると解釈しています。
Anthropicの現在の政府契約の6ヶ月間の終了期間が始まるにつれ、業界には冷え込みが生じています。ワシントンからのメッセージは明確です。AI戦争の新時代において遵守は義務であり、倫理的な異議申し立てには重い代償が伴うということです。
Anthropicの法的挑戦は、21世紀を定義する先例となる可能性が高いでしょう。政府は、米国の民間企業に対し、自らが道徳的かつ技術的に安全でないと見なすツールの構築を強制できるのでしょうか。それとも、「愛国的」なイノベーションの定義には、拒否する権利も含まれるのでしょうか。
今のところ、ダリオ・アモデイ氏とAnthropicはレッドラインを堅持しており、アメリカの司法制度、そしておそらく歴史の長期的な判断が、目先の軍事的な実用性よりも、彼らの原則に基づいた自制を評価することに賭けています。しかし短期的には、同社はシリコンバレーを屈服させようとする連邦政府の全力の圧力に直面しています。