
В условиях резкого обострения идеологической войны между ведущими лабораториями ИИ Кремниевой долины, генеральный директор (CEO) Anthropic Дарио Амодей (Dario Amodei) обвинил конкурента OpenAI в участии в «театре безопасности» (safety theater) и распространении «откровенной лжи» (straight up lies) относительно его недавнего партнерства с Министерством обороны США. Обвинения, изложенные во внутренней служебной записке, о которой сообщил портал The Information, знаменуют собой окончательный раскол единого фронта индустрии в вопросах безопасности ИИ, разрушая вежливую видимость, которая долгое время характеризовала отношения между двумя гигантами.
Служебная записка, разосланная сотрудникам Anthropic на этой неделе, появилась через несколько дней после того, как OpenAI объявила о спорном соглашении по развертыванию своих моделей в секретных сетях Пентагона — сделке, заключенной всего через несколько часов после того, как Anthropic, по сообщениям, вышла из аналогичных переговоров из-за этических «красных линий» (red lines).
Амодей в своем внутреннем сообщении отказывается от корпоративных дипломатических любезностей. Согласно отчету, он специально нацелился на то, как генеральный директор (CEO) OpenAI Сэм Альтман (Sam Altman) публично преподносит сделку с Пентагоном. Альтман охарактеризовал соглашение как победу ответственного развертывания ИИ, утверждая, что OpenAI успешно согласовала строгие защитные меры против автономного оружия и внутренней слежки — условия, которые Anthropic якобы не удалось обеспечить.
«Мы на самом деле честно придерживались наших "красных линий", а не вступали с ними в сговор с целью создания "театра безопасности" (safety theater) на благо сотрудников», — как сообщается, написал Амодей. Он пошел еще дальше, назвав версию Альтмана «откровенной ложью» и «ложной попыткой представить себя миротворцем» в хаотичной регуляторной среде.
Суть претензий Амодея, по-видимому, заключается в содержании тех самых «защитных мер», которые OpenAI якобы ввела в действие. В то время как Anthropic отказалась от условий Пентагона, поскольку те не предусматривали контрактного запрета на использование их ИИ для массовой внутренней слежки или полностью автономного смертоносного наведения, критики утверждают, что сделка OpenAI требует лишь соблюдения «существующих законов» — стандарта, который, по предупреждению защитников конфиденциальности, гораздо более проницаем, чем контрактный запрет.
Сроки этих событий только усилили интенсивность конфликта. В конце февраля 2026 года переговоры между Anthropic и Военным министерством (Department of War, ранее — Министерство обороны) провалились. Anthropic твердо стояла на двух не подлежащих обсуждению условиях:
Пентагон отклонил эти условия. В ходе драконовских ответных мер ведомство пометило Anthropic как «риск для цепочки поставок», фактически запретив использование её технологий на федеральном уровне.
Менее чем через 24 часа, в пятницу вечером, Сэм Альтман объявил о партнерстве OpenAI с тем же самым ведомством. В последующем посте Альтман признал, что сделка была «поспешной» и «небрежной», но настаивал на том, что OpenAI обеспечила необходимые этические барьеры. Служебная записка Амодея предполагает, что OpenAI просто капитулировала перед требованиями правительства, чтобы заполучить выгодный контракт, переупаковав эту капитуляцию как «стратегический компромисс».
В следующей таблице изложены критические расхождения в подходах двух компаний к военному сотрудничеству по состоянию на март 2026 года.
| Stance on Military Collaboration | Anthropic | OpenAI |
|---|---|---|
| Основные этические «красные линии» | Контрактный запрет на массовое наблюдение и наведение автономного оружия. | Опора на «существующие законы» и политику «человеческой ответственности». |
| Результат переговоров с Пентагоном | Сделка отклонена; помечена Министерством обороны как «Риск для цепочки поставок». | Подписана сделка по развертыванию в секретных сетях. |
| Публичное позиционирование CEO | Предупредил о «бесконтрольной государственной власти» и отказался «соглашаться по совести». | Заявил об успехе в согласовании защитных мер; позже признал, что процесс был «небрежным». |
| Реакция сотрудников | Внутренняя солидарность; открытые письма в поддержку отказа CEO. | Значительные волнения; уход ведущих исследователей со ссылкой на проблемы с «доверием». |
| Статус в государственных сетях | Запрещено/Ограничено. | Одобрено для секретного развертывания. |
В дополнение к обидам, идеологический раскол начинает проявляться в утечке кадров. Существенным ударом по исследовательскому руководству OpenAI стал уход вице-президента по исследованиям Макса Шварцера (Max Schwarzer), который присоединился к Anthropic. Шварцер, ключевая фигура в командах OpenAI по пост-обучению и рассуждению, объявил о своем уходе в X (ранее Twitter), заявив, что «многие люди, которым я больше всего доверяю и которых уважаю, присоединились к Anthropic за последние пару лет».
Уход Шварцера — не единичный случай, а часть растущей тенденции, когда исследователи, заботящиеся о безопасности, мигрируют в Anthropic, рассматривая её как последний оплот принципиальной разработки ИИ. Эта «утечка мозгов» подкрепляет внутренний нарратив Амодея о том, что OpenAI теряет свой моральный компас в погоне за коммерческим и государственным доминированием.
Спор между Амодеем и Альтманом — это больше, чем личная вражда; это раскол в самой философии управления ИИ. «Прагматичный» подход OpenAI утверждает, что взаимодействие с военными неизбежно и что для американской компании лучше формировать процесс развертывания изнутри. «Принципиальная» позиция Anthropic постулирует, что технологические компании должны выступать в качестве сдерживающего фактора для государственной власти, даже ценой потери крупных правительственных контрактов.
Обвиняя OpenAI во лжи, Амодей сигнализирует о том, что эпоха кооперативной «сокуренции» (co-opetition) закончена. По мере того как Пентагон интегрирует генеральный ИИ (Generative AI) в свои цепочки поражения и аппарат слежки, индустрия заставляет свои лучшие умы выбирать сторону: прагматичный коллаборационист или непокорный идейный противник. На данный момент Военное министерство выбрало OpenAI, но исследователи, строящие будущее, похоже, голосуют ногами.