
В условиях исторического обострения напряженности между Кремниевой долиной и Вашингтоном, лидер в области ИИ, компания Anthropic, официально подала иск против правительства Соединенных Штатов. Судебный иск последовал всего через несколько дней после того, как Пентагон — именуемый нынешней администрацией Военным министерством — официально признал базирующуюся в Сан-Франциско компанию «риском для цепочки поставок». Это обозначение, исторически применявшееся к иностранным организациям, связанным с враждебными государствами, знаменует собой первый случай, когда американская технологическая фирма стала мишенью для подобной классификации, подготавливая почву для определяющей юридической битвы за будущее искусственного интеллекта в сфере национальной безопасности.
Иск, о котором объявил генеральный директор Anthropic Дарио Амодеи (Dario Amodei), требует немедленного судебного запрета для отмены этого решения. Амодеи характеризует действия правительства как «юридически необоснованные» и карательные меры, направленные на то, чтобы заставить компанию отказаться от своих этических барьеров безопасности. В центре конфликта — фундаментальное разногласие по поводу военного применения ИИ: в то время как Пентагон требует «любого законного использования» технологии, Anthropic решительно отказывается позволить своим моделям Claude использоваться для массовой внутренней слежки или полностью автономных систем летального оружия.
Концепция обозначения «риск для цепочки поставок» (supply chain risk) была изначально создана для защиты инфраструктуры США от иностранного шпионажа и саботажа. Ранее целями становились китайские телекоммуникационные гиганты, такие как Huawei и ZTE, а также российская компания по кибербезопасности «Лаборатория Касперского». Присвоение этого ярлыка Anthropic — компании, основанной бывшими руководителями OpenAI с мандатом на безопасность ИИ — представляет собой радикальный сдвиг в оборонной политике США.
Согласно условиям решения, вынесенного 4 марта 2026 года, Министерство обороны фактически запрещает своим подрядчикам и партнерам использовать технологии Anthropic для работы, связанной с военными нуждами. Министр обороны Пит Хегсет (Pete Hegseth) назвал это решение необходимым шагом для обеспечения того, чтобы американские военные не были связаны по рукам и ногам «дефектным альтруизмом» частных корпораций.
В своем заявлении Амодеи утверждает, что правительство не смогло продемонстрировать какую-либо реальную уязвимость в системах безопасности Anthropic. Вместо этого компания настаивает на том, что «риск», на который ссылается Пентагон, носит скорее идеологический, чем технический характер — отказ подчиниться требованиям, которые устранили бы человеческий контроль из циклов принятия решений о применении летальной силы.
Ключевые последствия решения:
Разрыв между Anthropic и Пентагоном произошел не в одночасье. Это кульминация многомесячных неудачных переговоров по поводу продления и расширения оборонных контрактов. Точки трения носят конкретный и идеологический характер. Anthropic интегрировала принципы «Конституционного ИИ» (Constitutional AI) в свои модели, которые жестко кодируют отказы на запросы, связанные с нарушениями прав человека, пытками или автоматизацией применения летальной силы без санкции человека.
Пентагон, преследующий стратегию «Доминирования в области ИИ» (AI Dominance), утверждает, что эти жестко закодированные отказы представляют собой операционный риск. В условиях боевых симуляций с высокими ставками или быстрого анализа разведданных Министерство обороны утверждает, что ИИ, который подвергает сомнению приказы на основе корпоративной этики, является обузой.
В таблице ниже изложены расходящиеся позиции, которые привели к этому тупику:
Сравнение позиций: Anthropic против Пентагона
---|---|----
Основная философия|Безопасность ИИ (AI Safety) и ограничения «Конституционного ИИ»|Неограниченное «любое законное использование» для доминирования
Красные линии|Никакой массовой слежки; никакого автономного оружия|Никаких корпоративных ограничений на военное применение
Взгляд на безопасность|Функции безопасности предотвращают злоупотребления и несчастные случаи|Механизмы отказа создают операционные риски
Статус контракта|Отказ подписывать без исключений по этическим соображениям|Вендор признан «риском для цепочки поставок»
Результат|Подан иск со ссылкой на превышение административных полномочий|Переход к замене поставщика конкурентами
Это решение вызвало шок в американском технологическом секторе. Юристы и отраслевые аналитики предупреждают, что использование полномочий по контролю цепочек поставок для наказания за внутренние политические разногласия может дестабилизировать прочное партнерство между правительством США и частным технологическим сектором — партнерство, которое на протяжении десятилетий было двигателем американских инноваций.
«Это превращение законодательства о закупках в оружие», — заявил старший политический аналитик Центра стратегических и международных исследований. «Если правительство может повесить на американскую компанию ярлык риска национальной безопасности просто потому, что она не хочет создавать определенный тип оружия, то каждая фирма, занимающаяся технологиями двойного назначения в Америке, теперь находится под прицелом».
Однако вакуум, оставленный Anthropic, уже заполняется. Одновременно с разрывом отношений между Anthropic и Пентагоном конкурирующая фирма OpenAI объявила о масштабном новом партнерстве с Министерством обороны. OpenAI согласилась на условия, которые, по сообщениям, допускают более широкое военное применение ее моделей, хотя компания настаивает на сохранении защитных мер против злоупотреблений. Это расхождение создало раскол в Кремниевой долине: один лагерь готов полностью соответствовать оборонным приоритетам ради обеспечения массивных государственных контрактов, а другой, возглавляемый Anthropic, пытается сохранить этическую независимость даже ценой внесения в федеральный черный список.
Судебная жалоба Anthropic основывается на Законе об административных процедурах (APA) и конкретных положениях, касающихся безопасности цепочки поставок. Адвокаты компании утверждают, что закон требует от правительства использовать «наименее ограничительные меры», необходимые для смягчения риска. Сразу перейдя к обозначению «риск для цепочки поставок» — «крайней мере» в правилах закупок — правительство обошло более мягкие средства защиты, такие как простой отказ от продления конкретных контрактов.
Кроме того, Амодеи публично заявил, что подавляющее большинство клиентов Anthropic остаются незатронутыми. «Это явно относится только к использованию Claude клиентами как прямой части контрактов с Военным министерством, а не ко всему использованию Claude клиентами, имеющими такие контракты», — написал Амодеи в успокаивающем сообщении для коммерческих клиентов. Несмотря на это, репутационный ущерб от причисления к ряду иностранных противников является серьезным.
В иске также утверждается, что решение носило ответный характер. Внутренние служебные записки, цитируемые в иске, свидетельствуют о том, что должностные лица администрации были разочарованы отсутствием политической поддержки со стороны Anthropic и ее резкой критикой агрессивной политики администрации по дерегулированию ИИ.
Поскольку дело направляется в федеральный суд, ставки выходят далеко за рамки государственных доходов Anthropic. Решение, вероятно, определит пределы полномочий правительства США принуждать частные компании помогать в военных операциях.
Если суды поддержат решение Пентагона, это подтвердит доктрину, согласно которой интересы национальной безопасности перевешивают корпоративное управление и этические хартии. Если Anthropic одержит победу, это может создать юридический щит для технологических компаний, позволяя им участвовать в государственном рынке, сохраняя при этом свой собственный моральный компас.
На данный момент индустрия замерла в ожидании. Исход дела определит, останется ли «Безопасность ИИ» (AI Safety) жизнеспособной бизнес-моделью для компаний, связанных с оборонным сектором, или же соответствие военным целям государства станет обязательным условием для входа.
Хронология событий, приведших к иску:
Этот конфликт знаменует собой этап зрелости индустрии ИИ. Продвинутый ИИ больше не рассматривается просто как научное любопытство или инструмент повышения производительности, теперь он воспринимается как критически важный национальный актив — и оружие. Сопротивление Anthropic знаменует собой первую значительную попытку создателя этой технологии утвердить контроль над ее конечной судьбой вопреки воле государства.