
В решающий момент для будущего искусственного интеллекта (Artificial Intelligence, AI) в сфере национальной обороны Министерство обороны США предъявило жесткий ультиматум стартапу в области безопасности ИИ Anthropic. Министр обороны Пит Хегсет (Pete Hegseth) дал компании срок до этой пятницы, 27 февраля 2026 года, чтобы предоставить американским военным неограниченный доступ к флагманской модели ИИ Claude или столкнуться с жестким федеральным вмешательством.
Конфронтация, обострившаяся после напряженной закрытой встречи во вторник между министром Хегсетом и генеральным директором Anthropic Дарио Амодеи (Dario Amodei), сосредоточена на фундаментальном разногласии относительно этических «ограничителей» (guardrails), встроенных в системы ИИ. Пентагон угрожает применить Закон об оборонном производстве (Defense Production Act, DPA) или признать Anthropic «риском для цепочки поставок» (supply chain risk) — статус, который может фактически внести компанию в черный список на федеральном рынке, — если она не снимет ограничения, препятствующие использованию ее программного обеспечения для создания автономного оружия и ведения внутренней слежки.
Мы в Creati.ai внимательно следим за этим противостоянием, поскольку оно представляет собой самое значительное на сегодняшний день столкновение между ориентированными на безопасность лабораториями ИИ Кремниевой долины и оперативными императивами аппарата национальной безопасности США.
В центре конфликта — отказ Anthropic изменить свои Условия обслуживания для военных нужд. Хотя Anthropic заключила контракт с Министерством обороны на сумму 200 миллионов долларов, а ее модель Claude в настоящее время является единственной большой языковой моделью (Large Language Model, LLM), одобренной для использования в секретных сетях Пентагона, компания обозначила твердые «красные линии» в отношении того, как может развертываться ее технология.
В частности, Anthropic ограничивает использование Claude для:
Министр Хегсет и официальные лица Пентагона утверждают, что эти частные корпоративные ограничения являются ненужными препятствиями для национальной безопасности. Позиция Министерства обороны заключается в том, что его операции уже регулируются Конституцией США и федеральным законом, что делает дополнительные этические уровни Anthropic избыточными и обструкционистскими.
Согласно источникам, знакомым с ходом встречи во вторник, Хегсет прямо заявил Амодеи, что военным требуется доступ к Claude для «всех законных целей» без «идеологических ограничений». Это совпадает с более широкой инициативой Хегсета по обеспечению летальности и беспрепятственности военных систем ИИ — позицией, которую он кратко изложил в начале этого года заявлением о том, что ИИ Пентагона «не будет woke».
Угроза, выдвинутая в адрес Anthropic, является беспрецедентной для коммерческого сектора ИИ. Если крайний срок в пятницу пройдет без уступок, Пентагон наметил два возможных курса действий, оба из которых будут иметь разрушительные последствия для бизнес-модели Anthropic.
Закон об оборонном производстве (Defense Production Act) 1950 года предоставляет президенту широкие полномочия принуждать отечественные отрасли отдавать приоритет государственным контрактам и распределять ресурсы для нужд национальной обороны. Исторически использовавшийся в военное время или во время чрезвычайных ситуаций, таких как пандемия COVID-19, призыв к DPA с целью заставить софтверную компанию изменить код безопасности своего продукта стал бы новым юридическим прецедентом. По сути, правительство может на законных основаниях потребовать от Anthropic предоставить версию Claude без цензуры, отменив собственную «конституцию безопасности» компании.
Возможно, еще более разрушительной является угроза признать Anthropic «риском для цепочки поставок». Это обозначение обычно резервируется для иностранных противников или скомпрометированных организаций (аналогично мерам, принятым против Huawei или Kaspersky).
В случае применения к Anthropic этот статус:
Срочность требований Пентагона, по-видимому, связана с недавними операционными трениями. Сообщения указывают на то, что американские военные использовали Claude во время рейда спецназа в январе 2026 года, который привел к поимке президента Венесуэлы Николаса Мадуро (Nicolás Maduro). Хотя операция прошла успешно, в дальнейшем возникли споры о том, нарушило ли использование ИИ политику использования Anthropic, что привело к возникновению того, что официальные лица назвали «дефицитом доверия».
Кроме того, ландшафт военного ИИ быстро меняется. Пока Anthropic медлит, ее конкуренты стремятся заполнить пустоту. Сообщается, что компания xAI Илона Маска (Elon Musk) согласилась на условия Пентагона о «любом законном использовании», и ее модели недавно получили разрешение на работу с секретными данными. Аналогичным образом OpenAI и Google активно борются за большую долю оборонного бюджета.
Для Anthropic эта дилемма является экзистенциальной. Генеральный директор Дарио Амодеи построил репутацию компании на разработке по принципу «безопасность прежде всего». Уступка требованию об автономном вооружении оттолкнет основной исследовательский персонал и будет противоречить основополагающей миссии компании. Однако потеря правительства США в качестве клиента — и столкновение с DPA — может подорвать ее финансовое положение и доступ к рынку.
Чтобы прояснить ставки этого пятничного дедлайна, ниже мы привели сравнение противоположных позиций.
Таблица: Требования Пентагона против политики Anthropic
---|---|----
Основное требование|Позиция Пентагона|Позиция Anthropic
Ограничения использования|Требует «всех законных случаев использования», включая боевое применение.|Запрещает автономное наведение на цель и массовую слежку.
Надзор|Опирается на закон США, Конституцию и иерархию командования.|Опирается на внутренние протоколы безопасности «Конституционного ИИ» (Constitutional AI).
Человеческий контроль|Открыт для автономных систем, если они разрешены законом.|Требует участия человека («human-in-the-loop») для всех летальных решений.
Последствия отказа|Применение Закона об оборонном производстве; внесение в черный список цепочки поставок.|Потенциальная потеря контракта на 200 млн долларов; репутационный ущерб.
Статус|Стремление к «оперативному превосходству» без ограничений со стороны поставщика.|Защита «ответственного масштабирования» (responsible scaling) и этических границ.
Исход этого противостояния создаст постоянный прецедент для отношений между правительством США и частным сектором ИИ. Если Пентагон успешно использует DPA для снятия защитных ограничений, он фактически национализирует этические стандарты моделей ИИ, используемых для обороны. Частные компании больше не будут иметь права отказывать в обслуживании для конкретных военных применений на основании моральных возражений.
И наоборот, если Anthropic удержит позиции и переживет последствия, это подтвердит, что передовые возможности ИИ остаются рынком продавца, где поставщик диктует условия взаимодействия.
Дедлайн в пятницу служит критическим моментом. Технологическая индустрия ждет, заставят ли динамики переходного периода Байден-Трамп — когда национальная безопасность агрессивно берет верх над корпоративной политикой — самого идеалистичного игрока Кремниевой долины пойти на уступки. В нынешнем виде Anthropic является единственной крупной лабораторией, сопротивляющейся полной интеграции своего интеллекта в машину войны. К выходным этого отличия может больше не существовать.
Creati.ai продолжит обновлять эту историю по мере приближения крайнего срока.