
アメリカの生成AI(Generative AI)政策の未来を決定づける瞬間、ドナルド・トランプ大統領は、すべての連邦機関に対してAnthropicとの関係を即座に断つよう命じる包括的な大統領令を発令した。金曜日の遅くに署名されたこの指令は、サンフランシスコを拠点とするAI研究ラボを明示的に「国家安全保障上のリスク(national security risk)」と位置づけている。この動きにより、エネルギー省から国防総省に至るまで、連邦政府全体でAnthropicの主力モデルであるClaudeの使用が事実上禁止される。
命令後のホワイトハウスの記者会見では、この決定はアメリカの軍事的および戦略的優位性を確保するために必要な措置であると説明された。政権幹部は、禁止の主な要因として、国防の優先事項に技術を合わせるという提案に対するAnthropicの「頑なな拒否」を挙げた。この展開は、これまでの共同規制から連邦政府の指令への忠誠を厳格に強制する姿勢への転換を意味し、民間AI部門に対する行政府によるこれまでで最も重要な介入となる。
Creati.aiの読者にとって、この出来事はAIエコシステムにおける亀裂の深化を浮き彫りにしている。それは、安全第一のラボと国家が義務付ける能力要件との間の格差の拡大である。連邦政府の契約が解除される中、市場をリードするLLMプロバイダーの一つが残した空白を競合他社が埋めようと躍起になり、業界は勢力図の再編に備えている。
トランプ政権とAnthropicの間の対立は、国防総省(Pentagon)の生成AIに関する特定のユースケースを巡る交渉の決裂に端を発しているようだ。この問題に詳しい情報筋によると、ピート・ヘグセス長官率いる国防総省(DoD)は、安全プロトコルを修正したClaudeの特別バージョンを要求していた。
報道によると、国防総省は特定の「拒絶ガードレール(refusal guardrails)」、つまり運動作戦、サイバー攻撃戦略、生物兵器シミュレーションへの協力を防ぐためにモデルに組み込まれた倫理的制約の削除を求めた。これらの制約は、リスクの高いシナリオにおいて能力よりも有用性、誠実さ、無害性を優先するAnthropicの「憲法的AI(Constitutional AI)」フレームワークの中核をなすものである。
報告によれば、AnthropicのCEOであるダリオ・アモデイ(Dario Amodei)氏は、これらの安全対策を弱めることは会社の中心的な使命に違反し、制御不能なリスクを解き放つ可能性があるとして、この要求を拒否した。この拒否は、ホワイトハウスによって単なる企業方針の不一致ではなく、国家安全保障の利益に対する不服従行為と解釈された。
トランプ政権は、地政学的競争、特に中国との競争が激化する時代において、米国政府は軍指揮官を「疑う」ようなソフトウェアに依存することはできないと主張している。ホワイトハウスが押し進める言説は、「ポリコレAI(woke AI)」や過度に制限されたモデルはアメリカの戦略的優位性を損なうというものだ。Anthropicを国家安全保障上の脅威とラベル付けすることで、政権はソフトウェア形式のAI平和主義は負債であると事実上主張している。
この変化の大きさを理解するには、Anthropicが遵守している基準と、国防総省から新たに示された要件を比較することが不可欠である。以下の表は、大統領令に至った乖離をまとめたものである。
| 特徴 | Anthropicの「憲法的AI」基準 | 国防総省の「防衛準備完了」要件 |
|---|---|---|
| 倫理的オーバーライド | モデルは憲法に違反するコマンドを拒絶する | 指揮権がモデルの倫理に優先する |
| 運動作戦 | 厳格に禁止(致死的援助に対するゼロ・トレランス) | 戦術分析に必要な能力 |
| データの主権 | ユーザーの危害軽減に焦点を当てた厳格なプライバシー | 政府監査のための完全な透明性 |
| ガードレールの変更可能性 | 開発者(Anthropic)によって固定 | エンドユーザー(国防総省/連邦機関)によって変更可能 |
| 展開範囲 | 汎用、安全性の境界内 | 任務特化型、無制限の境界 |
大統領令による直接的な余波は波乱に満ちている。データ分析や管理業務の自動化において連邦政府との契約を増やしていたAnthropicは、現在、公共セクター市場から完全に締め出される事態に直面している。同社の収益は主に企業および消費者セクターから得られているが、「国家安全保障上のリスク」という不名誉な指定は、政府との良好な関係を重視するフォーチュン500の顧客を不安にさせる可能性がある。
逆に、これは競合他社にとって巨大な好機となる。技術アナリストは、「制約のない」あるいは「主権を有する」モデル、つまり顧客が安全パラメータを完全に制御できるAIシステムを提供する意欲のある企業が、再編された連邦資金から数十億ドルを獲得する可能性があると指摘している。これは、抽象的な安全哲学よりも生の能力と国家への忠誠を優先する、政権のより広範な「アメリカ・ファーストAI(America First AI)」構想と一致している。
業界全体でリブランディングの動きが見られるだろう。AI企業は、普遍的な倫理指針ではなく、明示的に指揮系統に従うよう設計された「愛国的なAI(Patriotic AI)」ソリューションのマーケティングを開始する可能性がある。この市場の二極化により、AIは以下の2つの異なるクラスに分かれる結果となるかもしれない:
大統領令の発令直後に発表された声明の中で、Anthropicは安全性へのコミットメントを再確認した。「私たちはClaudeを有益で無害なものとして構築しました」と声明には記されている。「ユーザーが誰であれ、強力なAIシステムから安全ガードレールを取り除くことは、人類にとって容認できないリスクをもたらすと信じています。私たちはシステムの安全性について妥協することはありません。」
この原則に基づいた立場は、明確な境界線を引くものである。連邦政府との契約を失うことを選んでまでも安全アーキテクチャの妥協を拒むことで、Anthropicは敵対的な規制環境における倫理的AIの経済的存続可能性を試している。これは、ハイテク企業が多額の防衛資金を確保するために常に国家の意志に屈するという前提に異を唱えるものである。
しかし、「国家安全保障上のリスク」というラベルは、単なる契約の喪失以上の法的重みを持つ。理論的には、投資の制限、技術の輸出管理、さらには従業員への監視につながる可能性がある。ソフトウェア会社が軍のために製品の変更を強制されるかどうかの法的争いは、最終的に連邦裁判所で決着がつくことになるだろう。
この大統領令は、シリコンバレーに響き渡る前例を作った。それは、たとえ政権の目標が企業の安全性研究と矛盾する場合であっても、連邦政府の支援は政権の目標への完全な合致を条件とするというメッセージを送っている。
AIの研究者や開発者にとって、この萎縮効果は現実のものとなっている。今や問題は単に「それを作れるか?」ではなく、「安全に作った場合、ブラックリストに載るのではないか?」ということである。トランプ政権が世界の敵対勢力に対抗するためにAI能力の猛烈な加速を推進する中、微細なニュアンスや「拒絶メカニズム」が介在する余地は急速に縮小している。
Creati.aiは、この進展するニュースを注視し続ける。特に、OpenAIやGoogleといった他の主要プレーヤーが国防総省からの同様の圧力にどう対応するかを追っていく。「中立的」なテクノロジープロバイダーの時代は、終わりを告げようとしているのかもしれない。