
В переломный момент для индустрии искусственного интеллекта (Artificial Intelligence, AI) напряженность между этичной разработкой ИИ и требованиями национальной обороны переросла в полномасштабный публичный конфликт. Вслед за директивой Пентагона, признающей Anthropic «риском для цепочки поставок» национальной безопасности, генеральный директор Дарио Амодеи (Dario Amodei) выступил с вызывающим, но глубоко националистическим ответом, заявив: «Мы — американцы-патриоты», при этом отказавшись пересекать то, что компания определяет как критические этические «красные линии».
Спор, кульминацией которого на этой неделе стал масштабный запрет, изданный администрацией Трампа и министром обороны Питом Хегсетом, сосредоточен на отказе Anthropic изменить свои Условия обслуживания (Terms of Service), чтобы разрешить неограниченное военное использование — в частности, в отношении массовой внутренней слежки и полностью автономного летального оружия.
Конфликт достиг критической точки в пятницу, когда Министерство обороны США (DoD) выдвинуло ультиматум Anthropic: убрать защитные барьеры, ограничивающие использование военными модели Claude, или попасть в черный список. Когда крайний срок в 17:01 прошел без капитуляции Anthropic, министр Хегсет применил обозначение, редко используемое в отношении отечественных компаний, фактически классифицировав гиганта ИИ наряду с иностранными противниками с точки зрения токсичности цепочки поставок.
«Американские бойцы никогда не будут заложниками идеологических прихотей крупных технологических компаний (Big Tech)», — заявил Хегсет, объявив, что ни один подрядчик, ведущий дела с вооруженными силами США, не может продолжать коммерческую деятельность с Anthropic.
В резонансном интервью и последующем заявлении Дарио Амодеи возразил против версии о том, что его компания препятствует национальной безопасности. Вместо этого он представил отказ Anthropic как защиту основных американских ценностей. «Все, что мы делали, было ради этой страны, ради поддержки национальной безопасности США», — заявил Амодеи. «"Красные линии", которые мы провели, мы провели потому, что считаем, что пересечение этих линий противоречит американским ценностям».
Суть разногласий заключается в двух конкретных случаях использования, которые Anthropic последовательно запрещала в своей Политике ответственного масштабирования (Responsible Scaling Policy, RSP) и Условиях обслуживания, даже для государственных клиентов:
Пентагон в рамках проводимого нынешней администрацией ребрендинга в «Военное министерство» (Department of War) утверждает, что эти ограничения равносильны «праву вето» на военные операции. Представители министерства обороны заявили, что им требуются «все законные виды использования» технологии для сохранения превосходства над противниками, такими как Китай, которые не сталкиваются с подобными этическими ограничениями со стороны своего отечественного технологического сектора.
Классификация Anthropic как «риска для цепочки поставок» является драконовской экономической мерой, последствия которой выходят далеко за пределы Пентагона. Это обозначение не просто прекращает прямые контракты между Anthropic и Министерством обороны США; оно создает эффект заражения во всей оборонно-промышленной базе.
Крупные оборонные подрядчики и технологические партнеры — потенциально включая облачных провайдеров, таких как AWS и Google Cloud, если они обслуживают военные контракты — теперь находятся под юридическим давлением с целью разорвать связи с Anthropic для сохранения собственного положения перед правительством. Учитывая, что Anthropic недавно была оценена примерно в 380 миллиардов долларов и готовится к потенциальному публичному размещению акций, этот шаг представляет собой экзистенциальную финансовую угрозу, призванную принудить к подчинению.
«Это ответная и карательная мера», — заявил Амодеи журналистам, дав понять, что компания намерена оспорить это решение в суде. Юристы предполагают, что применение структуры риска цепочки поставок (supply chain risk), обычно предназначенной для аппаратного обеспечения из враждебных стран, к американской софтверной компании из-за политических разногласий является беспрецедентным и может столкнуться с серьезным судебным разбирательством.
Запрет создал немедленный вакуум в секторе оборонного ИИ, который конкуренты поспешили заполнить. Через несколько часов после объявления решения OpenAI подтвердила новое партнерство с Пентагоном, согласившись на условия, допускающие более широкое военное применение.
Это расхождение знаменует собой значительное раздвоение в индустрии ИИ: те, кто строго следует требованиям администрации по «неограниченному ведению войны», и те, кто пытается поддерживать независимое этическое управление.
Таблица: Оборонный раскол в сфере ИИ
| Подрядчик | Позиция по автономному оружию | Позиция по массовой слежке | Статус в Пентагоне |
|---|---|---|---|
| Anthropic | Строго запрещено Ссылается на техническую ненадежность и этические риски. |
Строго запрещено Рассматривает как нарушение гражданских свобод. |
Запрещен Назначен «Риск для цепочки поставок» |
| OpenAI | Разрешено В рамках «законного использования». |
Разрешено В соответствии с требованиями DoD. |
Активный партнер Новый контракт подписан в феврале 2026 г. |
| Palantir | Полностью интегрировано Многолетняя поддержка летальной автономности. |
Полностью интегрировано Основное продуктовое предложение. |
Активный партнер Первичный оборонный интегратор |
Защита Амодеи во многом опирается на техническую реальность современных больших языковых моделей (Large Language Models, LLM). Помимо моральных аргументов, Anthropic утверждает, что технология просто не готова к тому, чтобы ее исключали из контура управления («out of the loop») в летальных сценариях.
«Мы верим в победу над нашими автократическими противниками», — пояснил Амодеи. «Но развертывание систем, которые галлюцинируют или могут быть легко взломаны (jailbroken) для использования в автономных цепочках уничтожения, не делает Америку безопаснее; это вносит новый вектор хаоса».
Этот аргумент «безопасность — это защищенность» утверждает, что истинный патриотизм подразумевает предотвращение развертывания незрелых технологий, которые могут привести к дружественному огню, непреднамеренной эскалации или военным преступлениям. Однако администрация рассматривает эту осторожность как обструкционизм, интерпретируя «Ответственное масштабирование» (Responsible Scaling) как эвфемизм для «прогрессивной» (woke) нерешительности, которая замедляет модернизацию американской армии.
Поскольку начинается шестимесячный период сворачивания текущих государственных контрактов Anthropic, отрасль сталкивается с эффектом охлаждения. Послание из Вашингтона ясно: в новую эру войны ИИ соблюдение требований обязательно, а этическое инакомыслие обходится дорого.
Судебный иск Anthropic, вероятно, создаст определяющий прецедент для XXI века. Может ли правительство заставить частную американскую компанию создавать инструменты, которые она считает морально и технически небезопасными? Или определение «патриотических» инноваций включает в себя право сказать «нет»?
На данный момент Дарио Амодеи и Anthropic твердо стоят на своих «красных линиях», делая ставку на то, что американская правовая система — и, возможно, долгосрочный суд истории — оценит их принципиальную сдержанность выше сиюминутной военной выгоды. Но в краткосрочной перспективе компания сталкивается со всей мощью федерального правительства, решившего подчинить себе Кремниевую долину.