
OpenAIは、米国国防総省(United States Department of Defense:DoD)との契約合意を正式に修正し、同社の人工知能(Artificial Intelligence:AI)モデルを大規模な国内監視(Mass domestic surveillance)や完全自律型致死兵器(Fully autonomous lethal weaponry)の開発に使用することを明示的に禁止した。CEOのサム・アルトマン(Sam Altman)が火曜日に認めたこの動きは、国家安全保障の文脈における生成型AI(Generative AI)の倫理的運用に関する公衆の監視と内部議論が激化する中で行われた。
この戦略的転換は、サンフランシスコを拠点とするAIリーダーであるOpenAIにとって重要な瞬間となる。同社は、民主的な防衛イニシアチブの支援と、設立当初からの「安全第一」の原則の遵守というデリケートなバランスを舵取りしてきた。これらの制限を国防総省(Pentagon)との契約に直接明文化することで、OpenAIはプライバシー擁護派、市民自由団体、および自社の従業員からの反発を鎮める一方で、米国政府との協力関係を維持することを目指している。
契約の改定は、シリコンバレーのテクノロジー企業と政府機関との間の緊張が高まった時期に続くものである。今年初め、OpenAIが国防総省への関与を深めているというニュースが最初に浮上した際、同社の強力な大規模言語モデル(Large Language Models:LLMs)や推論エンジンが、米国市民への侵入的な監視や戦争におけるキルチェーンの自動化に転用される可能性があるという懸念が広がった。
批判者たちは、ロジスティクス、コード生成、またはデータ統合のために設計されたツールが、令状や監督なしに膨大な量の個人データを処理できる監視装置を意図せず動かしてしまうという「ミッション・クリープ(任務の肥大化)」の可能性を指摘した。これらの懸念に応え、修正された合意には、これらの高リスクな用途を具体的に除外する拘束力のある条項が含まれるようになった。
サム・アルトマンは、ワシントンD.C.のテクノロジー政策フォーラムで登壇し、これらの修正が先制的な措置であることを強調した。「我々は防衛分野を含め、AIにおける米国のリーダーシップの必要性を信じている」とアルトマンは述べた。「しかし、そのリーダーシップは道徳的な根拠に基づかなければならない。我々のツールが、重大な生死を分けるシナリオで人間に取って代わるのではなく、人間の意思決定者に力を与え、市民のプライバシー権を侵害しないようにするために、合意を修正している。」
合意への変更は単なる言葉上のことではない。OpenAIのAPIやエンタープライズ・ソリューションが国防総省のインフラ内でどのように導入できるかを制限する運用的ガードレールを導入している。この修正は、国内のプライバシー保護と致死的な自律行動の禁止という2つの主要な柱に焦点を当てている。
以下の表は、契約言語と運用範囲における具体的な変化の詳細である。
表:OpenAI-国防総省 契約修正の概要
| カテゴリ | 以前の契約範囲 | 新たな明示的制限 |
|---|---|---|
| 国内監視 | 一般的なデータ分析および統合を許可 | 監視目的での大規模な国内データセットの分析を厳格に禁止 |
| 致死的な自律性 | 「軍事および戦争」の使用に関して曖昧 | 完全自律型致死兵器システムの制御への使用を禁止 |
| 人間による監視 | 重要なタスクにおいて人間が介在することが暗示 | すべての動的または重大な決定において人間による承認を義務化 |
| データ保持 | 標準的なエンタープライズ保持ポリシー | 機密性の高い市民データに対する強化されたデータ消去プロトコル |
| 第三者のアクセス | 承認された防衛請負業者に開放 | 下請け業者が倫理ガイドラインを回避するのを防ぐための制限されたアクセス |
これらの境界線を定めることで、OpenAIは防衛契約の新しい業界標準を確立しようとしており、AI企業がチェックされていない国家権力の導管になることなく、国家の利益を支援できることを示唆している。
この修正は、AI倫理の分野で最も議論の多い問題の一つである、致死的な自律型兵器システム(Lethal Autonomous Weapons Systems:LAWS)の開発に対処している。米軍は武力行使に人間の判断を必要とする方針を維持してきたが、高度なAIプランニングと推論機能の統合により、ソフトウェアが最終的に人間の監視を追い越してしまうのではないかという懸念が生じていた。
自律型兵器への自社技術の使用を明示的に禁止するというOpenAIの決定は、「ヒューマン・イン・ザ・ループ(Human-in-the-loop)」の教義に沿ったものである。この教義は、致死的な武力の行使に対しては常に人間が責任を負わなければならないと主張している。これを契約で強制することにより、OpenAIはGPT-5の最新版やその推論後継モデルなどの自社モデルが、厳密に支援機能のために使用されることを保証する。これらの機能には、直接的な戦闘への関与ではなく、ロジスティクス計画、サイバーセキュリティ防衛、コード分析、およびインテリジェンス・レポートの統合が含まれる。
この区別はCreati.aiの読者にとって理解することが極めて重要である。防衛における生成型AIの有用性は広大であり、兵器をはるかに超えている。国防総省は、レガシー・ソフトウェア・システムの近代化、官僚的プロセスの合理化、およびオープンソース・インテリジェンスの分析にこれらのツールを活用している。OpenAIの修正は、これらの高価値で非致死的なユースケースを維持しつつ、公衆の恐怖を引き起こす「レッドライン」の用途を隔離している。
OpenAIの動きは、パランティア(Palantir)、Google DeepMind、および新興の防衛技術スタートアップなどの他の主要な防衛請負業者やAIプロバイダーに対し、同様の透明性措置を採用するよう圧力をかける可能性が高い。軍事への関与に対するアプローチは各社で異なっている。
長年、Googleは「プロジェクト・メイヴン(Project Maven)」論争の最中に、社内従業員のアクティビズムに苦しみ、それが原因で特定のドローンビデオ分析契約から撤退することになった。対照的に、Palantirは西側の防衛パートナーとしての役割を臆することなく受け入れている。OpenAIは「中間道」を切り開こうとしている。つまり、米国国防総省を支援しつつも、明確な倫理的主権を保持するという道である。
業界アナリストは、この修正が実際にOpenAIの長期的な地位を強化する可能性があると示唆している。大規模監視の懸念に正面から取り組むことで、同社は規制リスクを軽減し、より広い公衆との信頼を築くことができる。この「信頼資本」は、同社が経済のあらゆるセクターに浸透する、ますます有能なモデルを展開し続ける上で不可欠である。
これらの新しい契約条件の実施が成功するかどうかは、検証と監視に大きく依存している。OpenAIが国防総省によるモデルの使用をどのように監査するかについては、依然として疑問が残る。一般的な企業クライアントとは異なり、国防総省は高度な機密保持の下で運営されているため、外部監査は困難である。
サム・アルトマンは、OpenAIの身元調査済みの技術専門家と国防総省の倫理担当官で構成される合同監視委員会を設置し、使用ログをレビューして新しい禁止事項の遵守を確保することを示唆した。このメカニズムは、AIモデルの具体的な用途がセキュリティ・クリアランスの層によって不明確になる「ブラックボックス」問題を防ぐように設計されている。
さらに、この展開は、地政学的な規範を形成する上での民間テクノロジー企業の進化する役割を浮き彫りにしている。戦争におけるAIを統治する包括的な国際条約が不在の中で、利用規約や商業契約が軍事AIの拡散を規制する事実上の法律になりつつある。
OpenAIの国防総省との契約修正の決定は、AI業界の成熟を象徴している。それは、人工知能のデュアルユース(二重用途)の性質――計り知れない利益と深刻な害の両方をもたらす可能性――が、単なる曖昧な倫理ガイドライン以上のもの、つまり拘束力のある法的文書を必要としていることを認めるものである。
AIコミュニティにとって、これはテクノロジーと国家権力の必然的な交差点をどのように航海するかについてのケーススタディとなる。大规模監視と自律的な殺害に対して明確な一線を引くことで、OpenAIは防衛セクターとの協力が市民の自由の原則を放棄することを必要としないことを証明しようとしている。テクノロジーが加速し続けるにつれ、これら「紙のガードレール」の耐久性が試されることになるだろうが、現時点では、責任あるイノベーションへの重要なコミットメントとして機能している。