
Вашингтон, округ Колумбия — В ходе исторического и беспрецедентного обострения конфликта между ИИ-лабораториями Кремниевой долины и федеральным правительством, Военное министерство (Department of War, ранее — Министерство обороны) расторгло контракт с Anthropic на сумму 200 миллионов долларов. Этот шаг был предпринят после того, как компания, специализирующаяся на безопасности ИИ (AI safety), отказалась снять операционные ограничения на использование своих моделей для автономного вооружения и массового наблюдения.
В директиве, изданной поздно вечером вчера, военный министр Пит Хегсет официально признал Anthropic «риском для национальной безопасности в цепочке поставок» (Supply-Chain Risk to National Security). Эта маркировка исторически закреплялась за иностранными противниками и поставщиками телекоммуникационных услуг, считающимися враждебными интересам США. Данное назначение влечет за собой немедленный запрет на все коммерческие взаимодействия между обширной сетью подрядчиков вооруженных сил США и базирующейся в Сан-Франциско ИИ-компанией.
Расторжение контракта стало кульминацией многомесячного спора по поводу этических «красных линий», заложенных во флагманскую модель Anthropic — Claude. В то время как Пентагон стремился к «неограниченному» доступу к передовым ИИ-моделям (frontier AI models) для поддержания стратегического доминирования, Anthropic стойко отказывалась изменять свою Политику допустимого использования (Acceptable Use Policy, AUP), чтобы допустить специфические виды применения в летальном вооружении и слежке.
Источники, близкие к переговорам, сообщают, что Военное министерство потребовало удаления защитных барьеров, которые препятствуют использованию Claude для пилотирования полностью автономных дронов или масштабного анализа данных внутренних коммуникаций. Генеральный директор Anthropic Дарио Амодеи, по сообщениям, отверг эти условия, заявив, что компания не может «с чистой совестью» позволить развертывание своей технологии способами, которые могут подорвать демократические ценности или лишены значимого человеческого контроля.
«Это не провал технических возможностей, а столкновение принципов», — отметил старший аналитик Creati.ai. «Anthropic фактически ставит свой бизнес на карту, продвигая идею о том, что безопасность ИИ (AI safety) не подлежит обсуждению, даже когда заказчиком выступают самые мощные вооруженные силы в мире».
Самым значимым событием является не сама потеря контракта, а применение полномочий по признанию «риском для цепочки поставок» (Supply-Chain Risk) в отношении американской компании. Приказ министра Хегсета выходит далеко за рамки простой отмены услуг.
Ключевые последствия этого назначения:
Правоведы уже поставили под сомнение правомерность использования полномочий по контролю цепочек поставок — предназначенных для предотвращения иностранного шпионажа и саботажа — для наказания в рамках внутреннего контрактного спора об этических принципах. Anthropic пообещала оспорить это решение в федеральном суде, охарактеризовав его как «идеологическую месть», а не как подлинную оценку безопасности.
По мере ухода Anthropic из портфеля Пентагона, конкурирующая лаборатория OpenAI быстро предприняла шаги по укреплению своих позиций в качестве основного партнера военных в сфере ИИ. Отчеты указывают на то, что OpenAI согласилась на условия, которые отвергла Anthropic, что привело к новому выгодному соглашению о развертывании систем на базе GPT-4 в закрытых сетях.
Этот переход спровоцировал ожесточенную публичную вражду между двумя гигантами ИИ. После сообщений о новой сделке OpenAI Дарио Амодеи разослал резкую внутреннюю записку, части которой просочились в технологические СМИ. Амодеи обвинил OpenAI в «театре безопасности» (safety theater) и охарактеризовал их публичные заявления относительно военных защитных барьеров как «откровенную ложь».
«OpenAI выставляет себя миротворцем, подписывая при этом сделки, которые размывают те самые стандарты безопасности, которые они якобы отстаивают», — написал Амодеи. Он утверждает, что соглашение OpenAI, вероятно, включает «лазейки», которые фактически аннулируют ограничения на автономную летальность — заявление, которое OpenAI решительно опровергла, заявив, что их партнерство сосредоточено исключительно на «законных оборонительных целях».
Внесение Anthropic в черный список посылает тревожный сигнал всей экосистеме ИИ. Это говорит о том, что правительство США больше не намерено терпеть «этические трения» со стороны своих поставщиков технологий. Для ИИ-стартапов с венчурным капиталом посыл ясен: соответствие целям Военного министерства теперь является обязательным условием для жизнеспособности в государственном секторе.
В следующей таблице представлены расходящиеся пути крупнейших ИИ-лабораторий в отношении военного сотрудничества по состоянию на март 2026 года:
Статус крупнейших ИИ-лабораторий при Военном министерстве
| Название лаборатории | Статус контракта | Позиция по летальной автономии |
|---|---|---|
| Anthropic | Расторгнут / В «черном списке» | Строгий запрет через конституционный ИИ (Constitutional AI) |
| OpenAI | Активен / Расширен | Разрешает «законное оборонительное» использование |
| Google DeepMind | На рассмотрении | Ограничено, только с участием человека (human-in-the-loop) |
| xAI | Активен / Секретно | Соблюдение неограниченного «законного использования» |
Предстоящие недели станут критически важными для Anthropic. Если статус «риска для цепочки поставок» выдержит судебную проверку, компания столкнется с экзистенциальной угрозой для своего корпоративного бизнеса. Корпоративные клиенты, которые также обслуживают оборонный сектор, могут быть вынуждены перейти на альтернативные модели, чтобы избежать регуляторного перекрестного огня.
Между тем, Военное министерство дало понять, что его терпение в отношении «повестки в ИИ» («woke AI») — термин, использованный министром Хегсетом для описания моделей с жесткой фильтрацией безопасности — исчерпано. В то время как США стремятся интегрировать генеративный ИИ (Generative AI) в свою инфраструктуру управления и контроля, разрыв между «патриотичными» разработчиками ИИ и лабораториями, ставящими безопасность на первое место, станет определяющей линией разлома в отрасли.