
米国防総省と民間人工知能(AI)セクターの関係を塗り替える可能性のある動きとして、エリッサ・スロットキン(Elissa Slotkin)上院議員(民主党、ミシガン州選出)は、国防総省による AI の使用に対して、厳格で交渉の余地のない法的制限を課すことを目的とした画期的な立法案を提出しました。この取り組みは、国防総省(DoD)と AI 開発企業であるアンソロピック(Anthropic)との間の注目を集めた対立を受けて行われたものであり、強力な生成型 AI(Generative AI)モデルを軍事および情報活動にどのように展開すべきかをめぐる対立の深まりを浮き彫りにしています。
スロットキン上院議員の提案は、次期 国防権限法(NDAA:National Defense Authorization Act)への統合の可能性を見据えており、AI の能力と展開に関する特定の「レッドライン(Red lines)」を連邦法に明記することを目指しています。米軍が新興技術の導入を加速させる中、明確な立法上の境界線が存在しないことが、議員、プライバシー擁護派、そして業界リーダーの間で激しい議論を巻き起こしています。
この法案の核心には、3つの明確かつ基本的な禁止事項があります。これらの制限を法制化することで、スロットキン上院議員は、民主的な規範や世界の安定に対して倫理的、法的、あるいは存立に関わる重大なリスクをもたらす可能性のある方法で、国防総省が高度な AI を活用することを防ぐことを目指しています。
提案されている「レッドライン」は以下の通りです:
スロットキン上院議員の法案の背後にある緊急性は、国防総省と米国を代表する AI 開発企業の一つである アンソロピック(Anthropic) との間の最近の緊張に直接結びついています。報道によると、ピート・ヘグセス(Pete Hegseth)長官率いる国防総省は、アンソロピックから AI 能力を調達しようとしました。しかし、同社は自社モデルへの無制限のアクセスを提供することに抵抗したと伝えられており、特に軍が自律的な致死的ターゲティングや国内監視にこの技術を使用することを可能にする要件に反対しました。
この摩擦点は、重大な乖離を浮き彫りにしました。国防総省は AI を戦略的不可欠事項と見なし、しばしば最大限の運用上の柔軟性を求めていますが、多くのトップレベルの AI 企業は「憲法 AI(Constitutional AI)」や安全第一の開発哲学へのコミットメントを強めています。この対立は、立法上の明確さがなければ、米国政府は技術的優位性を維持するために依存している民間セクターのパートナー自体を戦略的に遠ざけてしまうリスクがあることを示唆しています。
スロットキン上院議員の法案は、すべての契約者に対して標準的な関与ルールを設定することで、この不確実性を解消することを目指しています。これらの制限を法制化することで、政府は実質的にハイテク企業のための「セーフハーバー(Safe harbor)」を作り出し、自社のモデルがシステムに組み込んだ倫理的制約を無視するように操作されることを恐れることなく、企業が防衛目的を支援できるようにします。
法案の影響を理解するために、制約をそれを推進する論拠とともに分類することが役立ちます。次の表は、提案されている立法上のガードレールの分析を示しています。
| 制約 | 主な論拠 | 潜在的な影響 |
|---|---|---|
| 致死的な自律性 | 指揮に基づかない人命の損失を防止 | 致死力の行使における「ヒューマン・イン・ザ・ループ」の義務化 |
| 大量監視 | 市民の自由を保護 | 国内のデータ利用およびターゲティングの制限 |
| 核指揮 | 壊滅的なシステムリスクの防止 | 大量破壊兵器(WMD)の意思決定チェーンにおける AI の明示的禁止 |
この提案は上院軍事委員会での議論の焦点として注目を集めていますが、成立への道には依然として政治的なハードルが立ちはだかっています。現在の国防総省指導部を含む防衛当局は、歴史的に「一律の」制限に対して慎重であり、そのような制限は、同様に軍事 AI に多額の投資を行っている中国のような敵対国に対して競争上の優位性を譲り渡すことになりかねないと主張することがよくあります。
スロットキン上院議員は、これらの規定を、米軍に資金を提供する毎年恒例の「成立必須」の法律である国防権限法(NDAA)に組み込むことを提唱しています。 AI のセーフガードを NDAA に結びつけることで、支持者たちはこの問題を主流の国防政策の議論に持ち込むことができ、行政府がこの議論を回避することを困難にできると考えています。
しかし、反対意見も根強く残っています。安全保障機構内の批判派は、技術は硬直的な法律ではなく行政政策によって統治されるべきだと主張しています。法律では AI の急速な進化に追いつくのが難しいためです。逆に、市民社会団体や一部の穏健派議員は、政策だけでは不十分だと主張し、大統領令は次期政権によって覆される可能性がある一方で、連邦法は説明責任のための永続的な枠組みを提供すると指摘しています。
スロットキン氏の法案によって巻き起こった議論は、ペンタゴン(Pentagon) とアンソロピックの差し迫った懸念を超えたものです。それは、21世紀の根本的な緊張、すなわち、急速な技術導入と民主的なガードレールの維持との間のバランスに触れています。
Creati.ai の観察者にとって、この展開は業界のリトマス試験紙となります。それは、技術開発の「迅速に動いて破壊する(Move fast and break things)」時代から、倫理的なエンジニアリングが政府とのパートナーシップの前提条件となる、より成熟した段階への移行を合図しています。もし可決されれば、この法律は世界的な先例となり、他国が軍事的な文脈における AI の規制にどのようにアプローチするかに影響を与える可能性が高いでしょう。
結局のところ、スロットキン上院議員による法制化への推進は、AI が単なるツールではなく、変革的な力であるという認識を表しています。今、境界線を設定することで、米国は「責任ある」AI の開発においてリーダーシップを発揮し、次世代の防衛技術が地政学的な不安定さを自律的に引き起こす要因ではなく、人間の意図に従うものであり続けることを保証する機会を手にしています。この法案が立法プロセスを生き残るために必要な超党派の支持を得られるかどうかはまだ分かりませんが、それが火をつけた議論は間違いなく不可欠なものです。