
В результате драматического поворота, подчеркивающего высокую напряженность между Кремниевой долиной (Silicon Valley) и Вашингтоном (Washington), генеральный директор Anthropic Дарио Амодеи (Dario Amodei), по сообщениям, возобновил переговоры с высокопоставленными чиновниками Пентагона (Pentagon). Это событие произошло всего через несколько дней после того, как Министерство обороны США (DoD) официально классифицировало стартап в области безопасности ИИ как «риск цепочки поставок» (supply chain risk) — суровая категория, обычно резервируемая для иностранных противников — и заключило партнерство с конкурирующей компанией OpenAI.
Согласно источникам, близким к вопросу, Амодеи в настоящее время ведет «последние» обсуждения с Emil Michael, заместителем министра обороны по исследованиям и инженерным разработкам. Цель состоит в том, чтобы найти компромисс, который позволит Anthropic сохранить свои оборонные контракты, не капитулируя полностью в вопросах этических барьеров, которые спровоцировали первоначальный разрыв.
Контекстом для этих возобновленных переговоров послужил беспрецедентный шаг Министерства обороны (DoD). После срыва первоначальных переговоров в прошлую пятницу министр обороны Пит Хегсет (Pete Hegseth) принял решение пометить Anthropic как «риск цепочки поставок» (supply chain risk). Это обозначение фактически действует как черный список, запрещая не только прямые контракты с Пентагоном, но и запрещая любому оборонному подрядчику или поставщику вести коммерческую деятельность с Anthropic.
Для технологической фирмы, базирующейся в США, такая метка катастрофична. Она угрожает отрезать Anthropic от огромной экосистемы правительственных партнеров и может охладить частные инвестиции, сигнализируя о том, что компания идет вразрез с интересами национальной безопасности.
Конфликт сосредоточен на конкретных формулировках контракта, касающихся использования ИИ. Anthropic стойко отказывается удалять пункты, которые запрещают военным использовать модели Claude для «массовой внутренней слежки» (mass domestic surveillance) и «летального автономного оружия» (lethal autonomous weapons). Пентагон (Pentagon), напротив, потребовал удаления этих ограничений, настаивая на праве использовать технологию для «всех законных целей» (all lawful purposes).
Срыв предыдущих переговоров, как сообщается, зависел от одной конкретной фразы. Внутренние служебные записки указывают на то, что Министерство обороны (DoD) предложило принять более широкие условия Anthropic только в том случае, если компания удалит пункт, ограничивающий «анализ массово полученных данных» (analysis of bulk acquired data).
Амодеи воспринял эту просьбу с глубоким подозрением, интерпретируя ее как лазейку, которая позволит реализовать те самые сценарии массовой слежки, которые компания стремится предотвратить. «Мы сочли это очень подозрительным», — написал Амодеи в записке для персонала, охарактеризовав требование правительства как красную линию, которую компания не может пересечь по соображениям совести.
Напряженность была дополнительно усилена личной неприязнью. Эмиль Майкл (Emil Michael), чиновник, который сейчас сидит за столом переговоров напротив Амодеи, на прошлой неделе публично раскритиковал генерального директора в социальных сетях, обвинив его в «комплексе бога» (God complex) из-за отказа предоставить технологии для нужд национальной обороны. Возобновление переговоров предполагает, что прагматичные инстинкты выживания бизнеса заставляют снизить градус этой риторики.
Пока Anthropic отстаивала свои этические принципы, ее основной конкурент, OpenAI, быстро предпринял шаги, чтобы воспользоваться образовавшейся пустотой. В течение нескольких часов после разрыва отношений между Anthropic и Пентагоном генеральный директор OpenAI Сэм Альтман (Sam Altman) объявил о новом партнерстве с Министерством обороны (DoD).
Соглашение OpenAI, по сообщениям, соответствует требованию Пентагона об использовании во «всех законных целях». Хотя OpenAI утверждает, что ее стандарты безопасности остаются надежными, Амодеи резко раскритиковал этот шаг, назвав заявления конкурентов о безопасности в этом контексте «театром безопасности» (safety theater) и «лживостью».
Расхождение в стратегиях создало четкое разделение в ландшафте оборонного ИИ:
Сравнение гигантов ИИ в оборонном секторе (март 2026 г.)
| Компания | Ключевая позиция по оборонным контрактам | Текущий статус в Пентагоне |
|---|---|---|
| Anthropic | Отказывается от удаления пунктов против слежки; специально блокирует «анализ массовых данных». | Присвоен статус «Риск цепочки поставок»; попытка пересмотреть условия. |
| OpenAI | Соглашается на стандарт «всех законных целей»; полагается на внутренний «стек безопасности». | Подписан активный контракт; заменяет Anthropic в ключевых рабочих процессах. |
| Google DeepMind | Осторожное участие; фокусируется на кибербезопасности и логистике, а не на кинетических операциях. | Сохраняет старые контракты; наблюдает за текущими последствиями. |
Возобновившиеся переговоры между Амодеи и Майклом сигнализируют о том, что ни одна из сторон не выиграет от окончательного разрыва отношений. Для Пентагона потеря доступа к моделям Claude от Anthropic, которые высоко ценятся за их интерпретируемость и способности к рассуждению, снижает разнообразие их арсенала ИИ. Для Anthropic статус «риск цепочки поставок» является экзистенциальной финансовой угрозой, которая может подорвать ее оценку в 60 миллиардов долларов и оттолкнуть коммерческих партнеров, опасающихся конфликтов с Министерством обороны (DoD).
Отраслевые аналитики предполагают, что компромисс может включать «исключения», при которых модели Anthropic будут одобрены для конкретных, не связанных с боевыми действиями логистических и разведывательных задач, при этом они будут защищены от использования в системах слежки или автономного вооружения. Однако уровень доверия остается низким.
Исход этих переговоров, вероятно, создаст прецедент того, как правительство США принуждает к сотрудничеству или взаимодействует с частными лабораториями ИИ. Если Anthropic будет вынуждена капитулировать, чтобы снять статус из черного списка, это пошлет тревожный сигнал индустрии: этические красные линии могут оказаться нежизнеспособными, когда они вступают в конфликт с требованиями государства. И наоборот, если Амодеи добьется уступок, это может подтвердить подход «Конституционного ИИ» (Constitutional AI) как жизнеспособную бизнес-модель даже в оборонном секторе.
По состоянию на утро пятницы статус риска остается активным, и технологический сектор ждет, удастся ли отменить метку «риска» до того, как ущерб станет необратимым.