
Хрупкий баланс между этической разработкой искусственного интеллекта и императивами национальной безопасности достиг критической точки. Anthropic, базирующаяся в Сан-Франциско лаборатория ИИ, известная своим «Конституционным ИИ» (Constitutional AI) и философией «безопасность прежде всего», столкнулась с экзистенциальной угрозой со стороны своего самого могущественного потенциального клиента: Министерства обороны США (DoD). Отчеты подтверждают, что Пентагон активно рассматривает возможность присвоения Anthropic статуса «риска для цепочки поставок» (Supply chain risk) — драконовской маркировки, обычно резервируемой для иностранных противников, после бурных споров об использовании моделей Claude в активных военных операциях.
В центре этого шторма находится оборонный контракт на 200 миллионов долларов и фундаментальное разногласие по поводу роли автономных агентов (Autonomous agents) в ведении войны. В то время как конкуренты, такие как OpenAI и xAI, пошли навстречу требованиям военных использовать технологии для «всех законных целей», Anthropic твердо придерживается своих «красных линий» — в частности, в отношении массового наблюдения и полностью автономного летального оружия. Конфликт перерос из переговоров в залах заседаний в потенциальный черный список в масштабах всей отрасли, что знаменует собой переломный момент для интеграции передового ИИ (Frontier AI) в оборонно-промышленную базу.
Трения между Anthropic и представителями министерства обороны, по сообщениям, обострились после секретной операции в январе 2026 года, связанной с попыткой захвата бывшего президента Венесуэлы Николаса Мадуро. Согласно источникам, знакомым с вопросом, Пентагон использовал Claude — через интеграцию с партнером по анализу данных Palantir — для обработки разведывательных данных в реальном времени во время миссии.
Хотя операция была признана тактическим успехом по военным стандартам, ее последствия вызвали серьезный дипломатический разрыв между технологической компанией и Министерством обороны. Во время планового анализа после операции инженеры Anthropic якобы поставили под сомнение конкретное применение их модели в рейде, выразив обеспокоенность тем, что развертывание слишком близко подошло к цепочкам принятия решений о применении летальной силы. Этот запрос был воспринят руководством Пентагона не как ответственный надзор, а как неприемлемое вмешательство частного поставщика в суверенное военное управление.
Министр обороны Пит Хегсет с тех пор занял жесткую позицию, по сообщениям, заявив, что Министерство обороны «не будет использовать модели, которые не позволяют вам вести войны». Это настроение отражает растущее разочарование внутри Пентагона тем, что идеологические барьеры Anthropic несовместимы со скоростью и летальностью, требуемыми в современном конфликте. Министерство обороны утверждает, что если вариант использования является законным согласно международному праву и праву США, их поставщики технологий не должны иметь права вето, основанного на частной корпоративной морали.
Суть спора заключается в различных определениях «безопасности». Для Anthropic безопасность закодирована в самой архитектуре Claude, предназначенной для отклонения запросов, нарушающих ее конституцию, включая содействие нарушениям прав человека или действия в качестве полностью автономного оружия. Для Пентагона безопасность означает уверенность в том, что инструмент будет функционировать надежно и без ограничений, когда командир отдает законный приказ.
Anthropic прямо отказалась переступать два конкретных порога:
Хотя эти ограничения соответствуют ценностям многих в исследовательском сообществе ИИ, оборонные планировщики рассматривают их как помехи. Контраргумент Пентагона заключается в том, что «все законные цели» охватывают широкий спектр летальных действий и мероприятий по наблюдению, необходимых для национальной обороны. Отказываясь предоставить общее разрешение для этих категорий, Anthropic, по мнению военных, создает брешь в надежности, которая может подвергнуть опасности персонал на местах.
В таблице ниже приведено текущее положение основных лабораторий ИИ в отношении интеграции с военными:
Сравнение позиций основных лабораторий ИИ в отношении оборонных контрактов
---|---|----
Лаборатория ИИ|Военная позиция|Ключевые конфликты/Статус
Anthropic|Ограничительная / Этические барьеры|Риск присвоения статуса «Риска для цепочки поставок» из-за отказа от летальной автономии.
OpenAI|Гибкая / Коллаборативная|Удален запрет на «военные действия и ведение войны»; ведутся переговоры о более тесных связях для «законного» использования.
xAI|Неограниченная / Ястребиная|Агрессивно добивается оборонных контрактов; ориентирована на оборонные инициативы «Америка прежде всего».
Google (DeepMind)|Умеренная / Проектно-ориентированная|Историческое внутреннее сопротивление (Project Maven), но участие в контрактах JADC2.
Самым тревожным аспектом этой развивающейся истории является угроза Пентагона классифицировать Anthropic как «риск для цепочки поставок». Это обозначение гораздо более разрушительно, чем простая потеря одного контракта на 200 миллионов долларов. В экосистеме федеральных контрактов ярлык риска для цепочки поставок действует как инфекция.
В случае применения это юридически обяжет генеральных подрядчиков, таких как Lockheed Martin, Northrop Grumman и Palantir, удалить код Anthropic из своих систем, чтобы сохранить право на государственные заказы. Это может фактически изгнать Claude со всего федерального рынка, включая невоенные агентства, которые придерживаются стандартов безопасности Министерства обороны.
Отраслевые аналитики предупреждают, что этот шаг направлен на то, чтобы сделать из Anthropic показательный пример. «Пентагон посылает четкий сигнал Кремниевой долине», — отмечает эксперт по оборонной политике из Института Lawfare. «У вас могут быть этические заявления или у вас могут быть государственные контракты, но вы не можете диктовать правила ведения боя вооруженным силам Соединенных Штатов».
Время этого столкновения не случайно. Оно происходит в тот момент, когда Anthropic выпускает свое новейшее поколение «автономных агентов» — систем ИИ, способных выполнять сложные многоэтапные задачи с минимальным вмешательством человека. По мере того как эти агенты превращаются из чат-ботов в активных операторов, способных писать код, контролировать киберсистемы и анализировать геопространственные данные, ставки в вопросе контроля над ними выросли в геометрической прогрессии.
Пентагон рассматривает этих автономных агентов как критически важный элемент для сохранения паритета с почти равными противниками, такими как Китай, которые быстро интегрируют ИИ в свои цепочки поражения. Опасение Министерства обороны заключается в том, что зависимость от модели, которая может «отказаться» от выполнения команды во время критического кибернаступления или координации роя дронов, является стратегической уязвимостью, которую они не могут себе позволить.
Пока Anthropic стоит на своем, ее конкуренты извлекают выгоду из этого разрыва. Отчеты указывают на то, что xAI и OpenAI ускорили процессы получения допусков, предлагая «нецензурированные» или «готовые к выполнению задач» версии своих моделей для секретных сред. Эти альтернативы обещают Пентагону именно то, что он требует: мощные интеллектуальные возможности без трений, вызванных моральным арбитражем.
Для читателей Creati.ai и всей технологической индустрии это противостояние представляет собой поворотный момент. Если Anthropic будет наказана, это может охладить инициативы «безопасность прежде всего» во всем секторе, стимулируя лаборатории отдавать приоритет соблюдению требований, а не совести. Напротив, если Anthropic сохранит свои позиции, это может создать новый прецедент, когда этика частного сектора успешно ограничивает неконтролируемую автоматизацию войны.
По мере приближения крайнего срока продления контракта отрасль замерла в ожидании. Исход решит не только судьбу сделки на 200 миллионов долларов, но и то, будет ли будущее военного ИИ формироваться требованиями Пентагона или этическими красными линиями его создателей.