
OpenAIの技術リーダーシップにおける大きな激震として、リサーチ担当副社長兼ポストトレーニング責任者のマックス・シュワルツァー(Max Schwarzer)氏が辞任し、ライバル企業であるAnthropicに加わることが明らかになりました。2026年3月3日にX(旧Twitter)を通じて発表されたこの知らせは、OpenAIが米国戦争省(Department of War、旧国防総省)との物議を醸す提携を正式に発表したわずか数時間後にもたらされました。この提携は、人工知能の軍事利用に関する激しい議論を巻き起こしています。
シュワルツァー氏の離脱は、業界アナリストがOpenAIからAnthropicへの「価値観主導の移転(values-driven migration)」と呼ぶ現象における、最新の注目すべき退職例となります。シュワルツァー氏は、強化学習における個人コントリビューター(IC)としての研究に戻りたいという希望を公にしていますが、OpenAIの新たな軍事提携に対する公衆の反発と重なる辞任のタイミングは、AIコミュニティから厳しい視線を向けられています。
Max Schwarzer氏は、OpenAIに不朽の遺産を残しました。ポストトレーニング責任者として、同社の最も先進的なモデルの洗練と安全性のアライメントを直接担当していました。彼の在籍期間中、GPT-5系統全体(GPT-5.1、5.2、およびコーディング特化型の5.3-Codexを含む)と、推論に焦点を当てたoシリーズ(o1およびo3)のリリースを指揮しました。
「ここで携わってきたすべての仕事を信じられないほど誇りに思っています」と、シュワルツァー氏は別れの声明に記しました。彼は、同僚と共に推論パラダイムを構築し、テスト時計算量をスケールアップさせた貢献を強調しました。しかし、彼の声明は特にAnthropicの文化の魅力について強調しています。「私が最も信頼し尊敬している人々の多くが、ここ数年でAnthropicに加わっています。」
シュワルツァー氏の移籍は、単なる管理職の交代ではありません。それは重要な組織的知識の移転を意味します。事後学習(Post-training)は、生のAIモデルを動作、安全性、有用性の面で磨き上げ、実質的にモデルに「個性」と倫理的制約を与える段階です。Anthropicに移ることで、シュワルツァー氏はGPT-5やo3のアライメントに使用された独自の手法に関する深い専門知識を持ち込み、Anthropicのすでに強力なリサーチチームをさらに強化することになります。
シュワルツァー氏の辞任の背景は、現在シリコンバレーを包み込んでいる地政学的な嵐と切り離すことはできません。今週初め、ペンタゴン(最近の公式文書の更新では**戦争省(Department of War)**と呼ばれています)は、AI調達戦略における決定的な転換を発表しました。
トランプ政権からの指令を受け、連邦政府機関は、大量監視や自律型兵器に関する「レッドライン(譲れない一線)」の放棄を拒否したAnthropicとの契約を停止するよう命じられました。省側の広範なアクセス要求に応じるための利用規約の変更をAnthropicが拒んだことで、同社のサービスは即座に「破棄」されることとなりました。
逆に、OpenAIはその空白を埋める形となりました。CEOのサム・アルトマン(Sam Altman)氏は、機密ネットワーク上でのOpenAIモデルの展開を許可する新たな合意を認めました。アルトマン氏は後に、発表の初期対応が「日和見主義的でずさんだった」と認め、契約には国内監視に対するガードレールが含まれていると明確にしましたが、外聞は芳しくありません。
以下の表は、軍事協力に関する2大AI巨頭の相反する道筋を示しており、この分裂が人材の決断を促しているようです。
表:OpenAI対Anthropicの軍事的対立(2026年3月)
| 項目 | OpenAIのスタンス | Anthropicのスタンス |
|---|---|---|
| 契約状況 | 機密展開契約を締結(2026年3月) | 契約交渉決裂/終了 |
| 主な反対理由 | なし。「合法的目的」条項を遵守 | 監視に関する「レッドライン」の放棄を拒否 |
| 監視ポリシー | 国内スパイ活動に対するガードレールの存在を主張 | 利用規約における厳格な禁止 |
| 展開環境 | ペンタゴンの機密ネットワークを許可 | 監査なしの機密展開を拒否 |
| 政府関係 | トランプ指令下の優先パートナー | 「サプライチェーンのリスク」として指定 |
| CEO声明 | 「我々は政府と協力する必要がある。」(アルトマン) | 「我々は安全基準を妥協しない。」(アモデイ) |
シュワルツァー氏は特例ではありません。彼は拡大するトレンドの一部です。過去18ヶ月間、Anthropicは急速な商業化や政府への同調よりも、AIの安全性と倫理的な厳格さを優先する研究者たちの安息の地となってきました。
シュワルツァー氏が辞任願で言及した「信頼」は、おそらく既に移籍したヤン・ライケ(Jan Leike)氏やイリヤ・サツケヴァー(Ilya Sutskever)氏(自身のベンチャー経由ですが、思想的には安全第一陣営と同調)といった、元OpenAIの有力者たちを指していると考えられます。元OpenAIのVPであるダリオ・アモデイ(Dario Amodei)氏が率いるAnthropicは、業界の「良心」としての地位を確立することに成功しました。
この移転はOpenAIにとって戦略的なリスクをもたらします。同社は巨大な商業的リードと政府の支援を維持していますが、技術リーダーシップの核心、特に事後学習や*人間からのフィードバックによる強化学習(RLHF)*の複雑さを理解している人材の喪失は、GPT-6のような将来のモデルのイテレーションサイクルを遅らせる可能性があります。
OpenAIとAnthropicの二項対立は、かつてないほど鮮明になっています。
マックス・シュワルツァー氏にとって、Anthropicへの移籍は自身のルーツへの回帰です。彼は強化学習(RL)研究の「現場」に戻りたいという願望を述べています。Anthropicにおいて、彼は次世代の憲法AI(Constitutional AI)に焦点を当て、単に強力なだけでなく、厳格に制御可能なシステムの構築を支援することになるでしょう。それは、GPT-5を戦争省に展開することよりも、彼にとって共鳴する使命であるようです。
この混沌とした一週間の混乱が収まる中で、業界は人工知能の2つの異なる未来を注視しています。国家の力を受け入れる未来と、それを抑制しようとする未来です。シュワルツァー氏のようなトップクラスの人材の流れは、これらの知能を構築している研究者たちにとって、選択がますます明確になっていることを示唆しています。