
ワシントンの政治的指令と現代戦の運用の現実との間に広がる深い溝を露呈させる事実が明らかになった。土曜日に行われたイランへの大規模な空爆において、米軍が Anthropic 社の Claude AI に大きく依存していたことが報告により確認された。この使用は、ドナルド・トランプ大統領がすべての連邦機関でこのツールの使用を禁止する広範な行政命令(Executive Order)を発令したわずか数時間後のことだった。
イランの主要なミサイル拠点や指揮統制インフラを標的としたこの作戦は、Claude によって処理された高度なインテリジェンス評価に一部起因する精密さで実行された。この出来事は極めて矛盾した状況を浮き彫りにしている。金曜日の夜に最高司令官によって「国家安全保障上のリスク」と指定されたまさにそのテクノロジーが、土曜日の朝には、この10年で最も重要な軍事行動の一つを実行するために不可欠なものとなっていたのである。
空爆に至る一連の出来事は、急速なテクノロジーの統合と官僚的な統治との間の摩擦を物語っている。2026年2月27日金曜日、ホワイトハウスは Anthropic との数ヶ月に及ぶ確執を激化させた。自律的な致死力の行使に関する倫理的な「レッドライン」の撤回を同社が拒否したことを理由に、トランプ大統領はサンフランシスコを拠点とするこの AI 企業とのすべての政府契約を即時停止するよう命じた。
ピート・ヘグセス(Pete Hegseth) 国防長官は、金曜日の深夜にこの指令を強化し、Anthropic を正式に「サプライチェーン・リスク」に指定した。これは歴史的に、ファーウェイ(Huawei)のような外国の敵対勢力に対して予約されてきた分類である。しかし、土曜日に中東で日が昇る頃には、アメリカ中央軍(CENTCOM)はすでに空爆の運用段階に入っており、禁止されたソフトウェアを使用してリアルタイムの戦場データを処理していた。
以下の表は、この混乱に満ちた24時間の間に生じた、相反する指令と行動をまとめたものである。
指針対現実:24時間の対立
---|---|----
政策指針(金曜日)|運用の現実(土曜日)|結果
大統領命令: すべての Anthropic ツールの即時停止。|CENTCOM の使用: リアルタイムの情報収集のために Claude の使用を継続。|実戦中における 行政命令 への直接的な違反。
国防総省の分類: 「サプライチェーン・リスク」および「国家安全保障上の脅威」。|戦場での依存: 標的の特定およびシナリオ・シミュレーションに使用。|ミッション成功のために「禁止された」技術への依存が証明される。
ベンダーのステータス: すべての請負業者に提携解消を命令。|統合レベル: 指揮ワークフローに深く組み込まれている。|即時の削除は運用上不可能と判断。
国防関係者によると、イラン攻撃 中の Claude の具体的な用途は、基本的な事務作業をはるかに超えるものだった。この AI モデルは、膨大な量の衛星画像、信号情報(SIGINT)、およびオープンソース・データを統合し、イランの複雑な防空網内にある実行可能な標的を特定するために使用されたと報じられている。
軍内部の人間は、Claude の「非構造化」データを処理する能力が、計画立案者に決定的なスピードの優位性を与えたと示唆している。攻撃の数時間前、AI は以下の業務を支援した:
これらの致死的な用途での Claude への依存は、Anthropic 自身の利用規約に直接抵触する。同規約では、モデルを「暴力的な目的」や「兵器開発」に使用することを厳格に禁止している。これは、ペンタゴンが「脱獄(jailbroken)」された、あるいはローカライズされたバージョンのモデルを利用していたか、あるいは単に戦闘の最中にベンダーの倫理的制約を無視していた可能性を示唆している。
トランプ大統領が発した禁止令は、単なる手続き上のものではなく、イデオロギー的なものだった。現政権は、Anthropic の「憲法的 AI(Constitutional AI)」アプローチを頻繁に批判してきた。これは、ホワイトハウスがアメリカの軍事的優位性に対する「ポリコレ(woke)」的な障害と見なしている安全原則を組み込んだものである。
Truth Social 上で大統領は、同社を「急進左派」組織であると激しく非難し、コードへの無制限のアクセスを国防総省に許可することを拒否したことは裏切り行為にあたると主張した。政権の立場は明確である。戦争時において、米軍は自らのデジタル兵器庫に対して絶対的な支配権を持たなければならず、シリコンバレーのエンジニアたちの道徳的懸念に邪魔されることがあってはならないというものだ。
この政治的姿勢は、ヘグセス長官によって突きつけられた金曜日の最後通告で頂点に達した。要求は単純だった。Anthropic は、特に人間の監視なしに自律的な標的選定を妨げている「レッドライン」を放棄しなければならず、さもなければ連邦政府の完全なブラックリストに直面することになる、というものだ。ダリオ・アモデイ(Dario Amodei)CEO がこれを拒否したため、禁止令が署名された。
この出来事は、ペンタゴン内部で静かだが激しい危機を引き起こした。ヘグセス長官の下にある政治的指導層は大統領の禁止令と同調しているが、制服組の指導層や運用の指揮官たちは異なる現実に直面している。彼らにとって、Claude のような AI ツールは GPS と同じくらい不可欠なものとなっているのだ。
ある防衛アナリストは、「攻撃の6時間前に、基礎となるインテリジェンス・レイヤーを単に『アンインストール』することなどできない」と指摘した。「ホワイトハウスはこれをスマートフォンからアプリを削除するような感覚で扱ったが、実際には、電気がついている間に家の配線を剥ぎ取るようなものだ」。
この断絶は、たとえ「倫理的に制約された」AI プロバイダーからの脱却を図る政治的意志があったとしても、技術的な移行ははるかに遅いことを示唆している。直接的な影響として、競合他社がその空白を埋めようと急いでおり、OpenAI は Anthropic の禁止が発表されたわずか数時間後に、国防総省のシステムに自社のモデルを導入するための機密契約を締結したと報じられている。
今週末の出来事は、AI ガバナンスの将来に向けた重要なケーススタディとなる。あるツールが「禁止されたセキュリティ・リスク」であると同時に「不可欠な戦闘資産」でもあるという「Anthropic のパラドックス」は、現在の AI 調達政策の脆弱性を露呈させている。
防衛産業にとっての主な教訓は以下の通りである:
イランの標的上空で土煙が収まる中、ワシントンでの戦いはまだ始まったばかりである。政権は CENTCOM による禁止令違反の調査を開始すると予想され、軍法会議や辞任につながる可能性もある。しかし、沈黙の勝利を収めたのはアルゴリズムである。政策がいかなるものであれ、AI はループの中に存在し、機能したのである。
米軍によるイラン攻撃は地政学的な状況を塗り替えたが、同時に国内のテクノロジー部門においても新たな対立の境界線を引き直した。大統領命令に直接違反して Anthropic の Claude AI が使用されたことは、現代において、技術的能力がしばしば政治的権威を上回ることを証明している。
Creati.ai にとって、これは転換点となる。同じモデルが詩を書き、空爆を計画するという「デュアルユース」AI の時代は終焉を迎えようとしているのかもしれない。その代わりに、業界が「民間向けの安全な」AI と「軍用グレード」のツールへと二分され、米国政府がシリコンの兵士に対しても、人間の兵士と同様に盲目的に命令に従うよう要求する光景を、我々は目の当たりにしているのである。