
В руководстве OpenAI произошли серьезные перестановки: Макс Шварцер (Max Schwarzer), вице-президент по исследованиям и глава отдела пост-тренинга, ушел в отставку, чтобы присоединиться к конкурирующей лаборатории Anthropic. Объявление, сделанное через X (ранее Twitter) 3 марта 2026 года, появилось всего через несколько часов после того, как OpenAI официально оформила спорное партнерство с Военным министерством США (U.S. Department of War, ранее Министерство обороны) — сделка, вызвавшая бурные дебаты о милитаризации искусственного интеллекта.
Уход Шварцера стал очередным громким увольнением в рамках того, что отраслевые аналитики называют «миграцией, основанной на ценностях» из OpenAI в Anthropic. Хотя Шварцер публично сослался на желание вернуться к роли индивидуального исследователя (Individual Contributor, IC) в области обучения с подкреплением (Reinforcement learning), время его отставки — совпавшее с общественным резонансом против нового военного альянса OpenAI — вызвало пристальное внимание со стороны ИИ-сообщества.
Макс Шварцер оставляет после себя монументальное наследие в OpenAI. Будучи главой отдела пост-тренинга (Post-training), он нес прямую ответственность за доработку и выравнивание безопасности (safety alignment) самых передовых моделей компании. За время его работы была выпущена вся линейка GPT-5 (включая GPT-5.1, 5.2 и специализированную для кодинга 5.3-Codex), а также ориентированная на рассуждения серия o (o1 и o3).
«Я невероятно горжусь всей работой, частью которой я был здесь», — написал Шварцер в своем прощальном заявлении. Он подчеркнул свой вклад в создание парадигмы рассуждений вместе с коллегами и масштабирование вычислений во время тестирования (test-time compute). Однако в его заявлении был сделан заметный акцент на привлекательности культуры Anthropic: «Многие из людей, которым я больше всего доверяю и которых уважаю, присоединились к Anthropic за последние пару лет».
Переход Шварцера — это не просто административное изменение; это передача критически важных институциональных знаний. Пост-тренинг (Post-training) — это этап, на котором сырые ИИ-модели оттачиваются для достижения нужного поведения, безопасности и полезности, фактически наделяя модель её «личностью» и этическими ограничениями. Переходя в Anthropic, Шварцер привносит глубокий опыт в проприетарных методах, используемых для настройки GPT-5 и o3, усиливая и без того мощную исследовательскую команду Anthropic.
Контекст отставки Шварцера нельзя отделить от геополитической бури, охватившей сейчас Кремниевую долину. Ранее на этой неделе Пентагон, именуемый в последних обновлениях официальных документов как Военное министерство (Department of War), объявил о решительном сдвиге в своей стратегии закупок ИИ.
В соответствии с директивой администрации Трампа федеральным агентствам было приказано прекратить контракты с Anthropic после того, как компания отказалась отказаться от своих «красных линий» в отношении массового наблюдения и автономного оружия. Отказ Anthropic изменить свои Условия обслуживания (Terms of Service) для удовлетворения требований министерства по широкому доступу привел к быстрому разрыву отношений.
OpenAI, напротив, заняла освободившуюся нишу. Генеральный директор Сэм Альтман (Sam Altman) подтвердил новое соглашение, разрешающее развертывание моделей OpenAI в закрытых сетях. Хотя Альтман позже признал, что первоначальная подача объявления была «оппортунистической и небрежной», и уточнил, что сделка включает защитные механизмы против внутренней слежки, репутационный эффект оказался негативным.
Следующая таблица описывает расходящиеся пути двух гигантов ИИ в отношении военного сотрудничества — раскол, который, по всей видимости, определяет кадровые решения талантов.
Таблица: Военное противостояние OpenAI и Anthropic (март 2026 г.)
| Параметр | Позиция OpenAI | Позиция Anthropic |
|---|---|---|
| Статус контракта | Подписана сделка по секретному развертыванию (март 2026) | Переговоры по контракту сорваны/прекращены |
| Основное возражение | Нет; соблюдены пункты о «законных целях» | Отказ отменить «Красные линии» в отношении слежки |
| Политика наблюдения | Утверждает наличие барьеров против шпионажа внутри страны | Строгий запрет в Условиях обслуживания |
| Среда развертывания | Разрешены секретные сети Пентагона | Отказ от секретного развертывания без аудита |
| Отношения с правительством | Приоритетный партнер согласно директиве Трампа | Обозначена как «риск для цепочки поставок» |
| Заявление CEO | «Нам нужно работать с правительствами». (Альтман) | «Мы не пойдем на компромисс со стандартами безопасности». (Амодеи) |
Шварцер не является исключением; он часть растущей тенденции. За последние 18 месяцев Anthropic стала убежищем для исследователей, которые ставят безопасность ИИ и этическую жесткость выше быстрой коммерциализации или лояльности правительству.
«Доверие», о котором Шварцер упомянул в своем заявлении об увольнении, вероятно, намекает на бывших тяжеловесов OpenAI, которые уже совершили переход, таких как Ян Лейке (Jan Leike) и Илья Суцкевер (Ilya Sutskever) (через его собственный проект, хотя он идеологически близок к лагерю сторонников безопасности). Anthropic, возглавляемая бывшим вице-президентом OpenAI Дарио Амодеи (Dario Amodei), успешно позиционирует себя как «совесть» индустрии.
Эта миграция представляет собой стратегический риск для OpenAI. Хотя компания сохраняет огромное коммерческое преимущество и поддержку правительства, потеря ключевого технического руководства — особенно тех, кто понимает тонкости пост-тренинга и обучения с подкреплением на основе отзывов людей (RLHF) — может замедлить циклы итерации для будущих моделей, таких как GPT-6.
Дихотомия между OpenAI и Anthropic теперь очевидна как никогда.
Для Макса Шварцера переход в Anthropic — это возвращение к истокам. Он заявил о желании «вернуться в гущу» исследований в области обучения с подкреплением (Reinforcement Learning, RL). В Anthropic он, вероятно, сосредоточится на следующем поколении конституционального ИИ (Constitutional AI), помогая создавать системы, которые будут не только мощными, но и строго контролируемыми — миссия, которая, по-видимому, находит у него больший отклик, чем развертывание GPT-5 для Военного министерства.
Пока пыль после этой хаотичной недели улегается, индустрия наблюдает за двумя разными вариантами будущего для искусственного интеллекта: один из них принимает мощь государства, а другой пытается ее ограничить. Поток талантов высшего уровня, таких как Шварцер, предполагает, что для исследователей, создающих эти разумы, выбор становится все более очевидным.