
В результате шага, который фундаментально разрушает отношения между ориентированными на безопасность лабораториями ИИ Кремниевой долины и вооруженными силами США, министр обороны Пит Хегсет (Pete Hegseth) официально назвал Anthropic "риском для национальной безопасности в цепочке поставок" (supply chain risk to national security). Это решение, объявленное поздно вечером в пятницу, фактически разрывает связи компании, занимающейся искусственным интеллектом, с федеральным правительством и запрещает десяткам тысяч оборонных подрядчиков использовать ее технологии.
Эта беспрецедентная акция последовала за драматическим противостоянием между руководством Anthropic и Пентагоном — который нынешняя администрация называет Военным министерством (Department of War) — по поводу этических границ применения искусственного интеллекта в бою. После этого назначения президент Дональд Трамп издал директиву, предписывающую всем федеральным ведомствам "немедленно прекратить" использование продуктов Anthropic, включая ее флагманскую модель Claude, с установлением строгого шестимесячного периода поэтапного отказа.
"На этой неделе Anthropic преподала мастер-класс по высокомерию и предательству", — заявил Хегсет в X (ранее Twitter), объявив о запрете всего через несколько часов после истечения срока ультиматума в 17:01. "Ни один подрядчик, поставщик или партнер, ведущий дела с вооруженными силами Соединенных Штатов, не может осуществлять какую-либо коммерческую деятельность с Anthropic".
Это решение создает бинарный выбор для американской оборонно-промышленной базы: отказаться от Claude или потерять государственные контракты. Такая классификация исторически резервировалась для иностранных противников, таких как Huawei или Kaspersky Lab, и это первый случай, когда ведущая американская лаборатория ИИ стала мишенью столь сурового механизма.
Конфликт сосредоточен на фундаментальном несогласии относительно "Политики допустимого использования" (Acceptable Use Policy, AUP), которая регулирует порядок развертывания моделей ИИ. В течение нескольких месяцев переговоры между Anthropic и представителями министерства обороны заходили в тупик из-за двух не подлежащих обсуждению "красных линий", установленных компанией:
Представители министерства обороны утверждали, что эти ограничения несовместимы с потребностями национальной безопасности, требуя от Anthropic предоставить военным "неограниченный доступ" для "всех законных целей".
Генеральный директор Anthropic Dario Amodei (Дарио Амодеи) отказался капитулировать. В заявлении, опубликованном вскоре после внесения в черный список, Амодеи аргументировал это тем, что нынешние фронтирные модели (frontier models) недостаточно надежны, чтобы им можно было доверить летальную автономность. "Мы не можем с чистой совестью согласиться на их просьбу", — сказал Амодеи. "Разрешение использовать текущие модели таким образом подвергнет опасности американских военнослужащих и гражданское население".
Внутренние источники предполагают, что трения достигли точки кипения в январе 2026 года после сообщений о том, что Claude использовался в сочетании с программным обеспечением Palantir во время военной операции США в Венесуэле. Операция, результатом которой стал захват Николаса Мадуро (Nicolás Maduro), как сообщается, вызвала внутреннюю тревогу в Anthropic по поводу того, как ее технология интерпретировалась военными операторами, что укрепило решимость компании обеспечить более строгие защитные барьеры.
Последствия внесения Anthropic в черный список были незамедлительными и ярко проиллюстрированы ее основным конкурентом. Всего через несколько часов после объявления Пентагона (Pentagon) OpenAI подтвердила, что достигла нового соглашения с Министерством обороны о развертывании своих моделей в секретных сетях.
Хотя генеральный директор OpenAI Сэм Альтман (Sam Altman) заявил, что их соглашение включает "технические меры предосторожности" и принципы человеческой ответственности, время выбора предполагает явное расхождение в отрасли. Рынок сейчас разделяется на два отчетливых лагеря: тех, кто готов полностью следовать "Доктрине Хегсета" о неограниченном военном применении, и тех, кто пытается сохранить независимый этический контроль.
В таблице ниже приведено сравнение политических позиций, которое привело к этому историческому расколу:
Сравнение политических позиций
| Особенность | Позиция Anthropic | Требование Министерства обороны / Хегсета |
|---|---|---|
| Автономное оружие | Строго запрещено (ссылаясь на надежность) | Разрешено ("Любые законные цели") |
| Внутренняя слежка | Строго запрещено (гражданские свободы) | Разрешено (приоритет национальной безопасности) |
| Статус контракта | Признан риском для цепочки поставок (Supply Chain Risk) | Стремление к "неограниченному доступу" |
| Операционный контроль | Защитные барьеры, определяемые поставщиком | Параметры, определяемые правительством |
Риторика министра Хегсета представила спор не просто как контрактное разногласие, а как идеологическую битву. Назвав Anthropic "радикально левой, woke-компанией", администрация сигнализирует о том, что отказ выполнять требования военных будет рассматриваться как отсутствие патриотизма.
Это ставит крупных оборонных подрядчиков в шаткое положение. Такие фирмы, как Lockheed Martin, Boeing и Northrop Grumman — многие из которых используют различные модели ИИ для кодирования, логистики и анализа — теперь должны провести аудит своих цепочек поставок, чтобы убедиться, что Claude полностью исключен. Приказ запрещает "коммерческую деятельность" — широкий термин, который теоретически может наказать оборонного подрядчика, если его отдел кадров использует Claude для составления электронных писем или его инженерные группы используют его для генерации несекретного кода.
Юристы предупреждают, что определение "риск для цепочки поставок", обычно используемое в рамках таких полномочий, как Закон о безопасности цепочки поставок при федеральных закупках (FASCSA), предназначено для защиты от шпионажа и саботажа, а не для наказания отечественных компаний за политические разногласия.
Anthropic пообещала оспорить это решение в суде, назвав его "юридически необоснованным". Компания утверждает, что у Пентагона нет законных полномочий запрещать частной американской компании доступ ко всей федеральной цепочке поставок только за отказ изменить свои Условия обслуживания.
"Мы считаем, что это решение... создает опасный прецедент для любой американской компании, которая ведет переговоры с правительством", — заявили в Anthropic. Компания утверждает, что правительство пытается использовать свою власть монопсонии (monopsony power), чтобы принудить к высказываниям и использованию кода, которые нарушают основополагающие конституционные принципы фирмы.
Однако суды исторически предоставляли исполнительной власти (Executive Branch) широкие полномочия в вопросах национальной безопасности. Пока судья не вмешается, запрет остается в силе, фактически блокируя доступ одной из самых передовых систем ИИ в мире к государственному сектору и заставляя всю технологическую индустрию выбирать сторону в быстро обостряющейся войне за душу военного ИИ.