
商業用AIの進歩と倫理的ガバナンスの間の繊細なバランスは、今週末、OpenAIのロボティクスおよびコンシューマーハードウェア責任者である**ケイトリン・カリノウスキー(Caitlin Kalinowski)**氏の辞任により激震に見舞われました。彼女の離職は、米国国防総省(DoD)との関係深化への対応として明示されており、フロンティアモデルの軍事化を巡る人工知能コミュニティ内の亀裂が深まっていることを浮き彫りにしています。
MetaのARグラス部門を率いた後、2024年後半にOpenAIに加わったハードウェア界のベテランであるカリノウスキー氏は、同社とペンタゴンの最近の合意を「ガバナンスの失敗」と特徴づけました。彼女の辞任は、ライバル企業であるAnthropicが、自律型兵器(autonomous weapons)や国内監視に関する安全性のレッドラインでの妥協を拒否したために、OpenAIが秘密裏に契約を確保したという報道が出てからわずか数日後のことです。
SNSや業界フォーラムで広く拡散された声明の中で、カリノウスキー氏は言葉を濁しませんでした。彼女は、OpenAIの新しい防衛合意で確立されたガードレールは「急ごしらえ」であり、悪用を防ぐために必要な法的拘束力に欠けていると主張しました。
「ペンタゴンとの合意は実行可能な道筋を作ると信じていますが、変化する政治状況に耐えうる形で定義されたガードレールがなければ、それはガバナンスの失敗です」とカリノウスキー氏は述べています。彼女の主な懸念は、リーダーシップによって修正や放棄が可能な契約上のポリシーと、厳格な技術的・法的禁止事項の区別に集中しているようです。
この離職は、OpenAIのロボティクスにおける野望にとって大きな打撃となります。カリノウスキー氏は、マルチモーダルモデルをハードウェアデバイスに統合する任務を負い、同社の物理的AIへの復帰を指揮するために採用されました。彼女の在任期間は短かったものの、OpenAIのソフトウェアの優位性と物理世界をつなぐ重要な架け橋と見なされていました。彼女の去り際は、多くのトップクラスのエンジニアにとって、仕事の倫理的影響が譲れない優先事項であることを示しています。
この辞任の背景は、国防総省(DoD)を巻き込んだ広範な地政学的駆け引きと密接に関係しています。2026年2月下旬、元OpenAI幹部によって設立されたAIセーフティのスタートアップであるAnthropicとペンタゴンの交渉は決裂しました。
報道によると、Anthropicは自社の「Claude」モデルを致死性の自律型兵器システムや大量監視に使用することを許可せず、政府契約において厳格で不変の条項を要求したとされています。業界に衝撃を与えた動きとして、国防総省はその後、Anthropicを「サプライチェーンのリスク」と呼び、特定の防衛契約から事実上ブラックリストに載せました。
OpenAIはこの空白を埋めるために迅速に動きました。CEOのサム・アルトマン(Sam Altman)氏は、国防総省の機密ネットワーク内にOpenAIモデルを導入することに合意したと発表しました。アルトマン氏は、この契約がOpenAIのミッションに合致していることを強調し、「自律型兵器の独立的指示」の禁止を挙げましたが、カリノウスキー氏のような批判者は、特に軍事的な文脈で歴史的に拡大解釈されてきた「ヒューマン・イン・ザ・ループ(人間が介在する仕組み)」の定義に関して、表現が曖昧すぎると主張しています。
主要な2つのAI研究所の間の戦略の相違は、かつてないほど鮮明になっています。以下の表は、国防総省がAnthropicからOpenAIへと方針を転換する要因となった主な相違点をまとめたものです。
表1:Anthropic対OpenAIの防衛契約に関する姿勢
| 特徴 | Anthropicの立場 | OpenAIの合意 |
|---|---|---|
| 自律型兵器 | すべての致死的な用途を厳格かつ交渉の余地なく禁止 | 「人間の責任」とポリシーによる保護策を条件に許可 |
| 監視 | 国内の大量監視ツールの有効化を拒否 | 「現行法」により制限(法改正の対象) |
| 契約の性質 | 拘束力のある技術的制限を要求 | 「重層的な」ポリシーとソフトなガバナンスに依存 |
| 国防総省への影響 | 「サプライチェーンのリスク」と見なされ契約解除 | 機密運用の確保 / 「戦略的パートナー」の地位 |
異議を唱えているのはカリノウスキー氏だけではありません。彼女の辞任は、OpenAIの従業員の一部と広範なユーザー層を刺激し、**「QuitGPT」**運動の再燃を引き起こしました。
OpenAIの内部チャネルは、会社が非営利のルーツから離れすぎているという懸念で溢れていると報じられています。OpenAIが2024年1月に利用規約から「軍事および戦争」の明示的な禁止を削除した際、経営陣はサイバーセキュリティのような「国家安全保障」用途を可能にするための必要な更新であると説明しました。しかし、機密作戦に関わり、安全性を重視する競合他社に取って代わる今回の契約は、従業員から見て会社の本来の憲章に対する根本的な裏切りと見なされています。
特にロボティクスチームにとって、その影響は深刻です。ロボティクスはAIが物理的な力を行使するインターフェースです。エンジニアたちの懸念は、家庭用ロボットが洗濯物を畳むのを助けるために訓練されているのと同じモデルが、この新しい合意の下で、最終的な行動に対して人間のオペレーターが名目上「責任」を負っている限り、自律型ドローンや二足歩行の番兵を誘導するために転用される可能性があることです。
今週の出来事は、AI業界の転換点となります。私たちは、最も強力なフロンティアモデルへのアクセスが国家安全保障の問題となり、商業的または倫理的な躊躇を上書きする「軍産AI複合体」の固定化を目の当たりにしています。
ケイトリン・カリノウスキー(Caitlin Kalinowski)氏の辞任は、単なる人事異動ではありません。それは戦争におけるAIの正常化に対する抗議です。OpenAIが国防総省のインフラに深く統合されるにつれ、彼女が指摘した「ガバナンスの失敗」は今後も中心的な論争点であり続けるでしょう。業界は今、不都合な現実に直面しなければなりません。汎用人工知能(AGI)の達成を目指す競争の中で、有益なツールと兵器の境界線はますます曖昧になっています。