
シリコンバレーで最も影響力のある AI 研究所の一つにとっての新たな章を刻む決定的な転換として、Google DeepMind は、防衛関連の取り組みへの関与に対するこれまでの消極的な姿勢から明確に決別することを示唆した。最近開催された社内のタウンホールミーティングにおいて、経営陣は、同組織が米国国防総省とのパートナーシップに積極的に「より傾注(leaning more)」していることを認め、この協力をグローバルな安定のための戦略的急務であると位置づけた。
この動きは、企業の姿勢における重要な進化を表している。「プロジェクト・メイヴン(Project Maven)」を巡る社内の混乱(従業員による広範な抗議活動を巻き起こし、同社が軍事級の AI プロジェクトから一時撤退するきっかけとなった 2018 年の契約)から数年を経て、Google は、防衛パートナーシップが自社の倫理的枠組みと本質的に相容れないものとはもはや考えていないことを示している。
このポリシー更新の中核にあるのは、Google DeepMind の幹部らによって提供された重要な洞察である。タウンホールでは、グローバルアフェアーズ担当副社長のトム・ルー(Tom Lue)と最高経営責任者(CEO)のデミス・ハサビス(Demis Hassabis)が従業員の懸念に対応し、同社のペンタゴンとの現在の関与は慎重に検討されたものであり、不可欠なものであることを強調した。
デミス・ハサビス(Demis Hassabis)は明確なビジョンを語り、Google が現在保っているバランスに「非常に満足している」と述べた。彼は、世界的なテクノロジーリーダーとして、グローバルな安全に貢献できる独自の AI(Artificial Intelligence)能力を適用するために、「民主的に選出された政府と協力することは我々の責務である」と主張した。
トム・ルーは、同社の監督体制の性質を明らかにすることでこのメッセージを補強した。彼は、Google がユースケースを評価するための「堅牢なプロセス」を確立したと指摘し、すべての軍事関連業務が、更新された AI 原則(2025 年に改訂され、兵器関連の AI 開発に関する以前のより制限的な誓約が削除されたポリシー)に沿っていることを確実にした。ルーによれば、これらの新たな関与の指針となる原則は、テクノロジーのポジティブな影響が「リスクを大幅に上回る」必要があるという費用便益分析である。
テクノロジー業界と戦争および国家安全保障(National Security)との関係は、急速な再調整が進んでいる。地政学的な緊張が高まる中、「平和のためのテック」と「防衛のためのテック」の二分法はますます曖昧になっている。以前は軍事契約(military contracts)から距離を置こうとしていた企業も、国家安全保障の要請が無視できないほど重要になっていることに気づき始めている。
次の表は、主要な AI 業界のプレーヤーの間で現在見られる、相反するアプローチをまとめたものである。
| 企業 | 防衛契約に対する姿勢 | 現在の注力分野 |
|---|---|---|
| 積極的に拡大中 | 非機密ネットワークの最適化 事務作業の自動化 戦略的な国家安全保障への支援 |
|
| Anthropic | 歴史的に慎重 | 厳格な「レッドライン(一線)」を強調 安全プロトコルに重点 規制ブラックリストのリスクへの対処 |
| Amazon/Oracle | 積極的に追求 | クラウドインフラストラクチャの統合 大規模データ管理 米国国防総省(DoD)向けの運用ロジスティクス |
この転換により、Google は Amazon や Oracle といったクラウドプロバイダーと直接競合することになる。これらの企業は、米国の防衛活動を支えるデジタルインフラを一貫して提供してきた。ペンタゴンと再び関与することで、Google はビジネスを確保するだけでなく、自社の生成 AI(Generative AI)モデルを国家安全保障業務に不可欠なツールとして位置づけている。
ルーとハサビスが主導した議論で繰り返し登場したテーマは、防衛インフラと攻撃兵器の区別であった。Google の現在の契約範囲は、非致死的、管理的、および組織的な支援に焦点を当てている。
具体的には、現在のプロジェクトでは、国防総省の非機密ネットワーク全体に AI エージェントを導入することが含まれている。これらのエージェントは、以下のような大量かつ低リスクの管理ワークフローを担当している:
これらのツールが標的の特定や運動エネルギーによる攻撃能力(キネティック・ストライク)を目的としたものではないことを強調し、明確な一線を画すことで、Google は自身の仕事が自律型戦争に寄与することを警戒するエンジニアや研究者の社内での懸念を和らげることを目指している。
Google、そして実のところ AI セクター全体にとっての課題は、防衛 AI への需要が拡大する中で、倫理的監督というこの「堅牢なプロセス」を維持することにある。世界の安全保障環境は不安定であり、国家安全保障の利益を支援するようビッグテック(Big Tech)にかかる圧力は収まりそうにない。
同社が前進する中で、主な焦点は透明性に置かれるだろう。自社の関与を、戦争の直接的なメカニズムへの関与ではなく、政府が複雑な問題を解決するのを支援するというコミットメントとして位置づけることで、Google は倫理的責任と地政学的義務の間の細い線を歩もうとしている。
この「より傾注する」アプローチが、長期的に社内の合意を得られるかどうかはまだ分からない。しかし、トップからのメッセージは明確である。シリコンバレーが国家安全保障の傍観者でいる時代は事実上終わった。Google DeepMind は、自社のブランドを定義する安全基準を維持しようと努めながら、民主主義機関の戦略的パートナーとしての役割を優先し、その進路を定めた。