
В переломный момент для индустрии искусственного интеллекта (Artificial Intelligence, AI), компания Anthropic публично и окончательно отклонила «последнее и окончательное» предложение Министерства обороны США по контракту. Отказ, озвученный генеральным директором Дарио Амодеи (Dario Amodei) 26 февраля 2026 года, знаменует собой одно из самых значительных столкновений между Кремниевой долиной и Вашингтоном с начала бума ИИ. В основе конфликта лежит фундаментальное разногласие по поводу развертывания флагманской модели Anthropic, Claude, в системах летального автономного оружия и сетях массовой внутренней слежки.
Переговоры, которые, по сообщениям, велись за закрытыми дверями в течение нескольких месяцев, стали достоянием общественности, когда Амодеи опубликовал заявление, в котором утверждалось: «Мы не можем по совести согласиться на их просьбу». Этот шаг делает Anthropic единственным крупным игроком среди ведущих ИИ-лабораторий, отказавшимся от сотрудничества, что поднимает критические вопросы о будущем согласования ИИ (AI alignment), государственном вмешательстве и независимости частных технологических фирм в эпоху обострения геополитической напряженности.
Согласно источникам, близким к переговорам, окончательное предложение Пентагона было не просто стандартным контрактом на закупку, а комплексной структурой интеграции. Министерство обороны (Department of Defense, DoD) стремилось получить неограниченный доступ к исходному коду и весам модели Claude для обеспечения работы боевых систем следующего поколения.
Суть разногласий сосредоточена на двух конкретных сценариях использования, которые нарушают принципы «Конституционного ИИ» (Constitutional AI) компании Anthropic:
Отказ Амодеи был категоричным. В служебной записке, разосланной сотрудникам Anthropic и позже переданной прессе, он подчеркнул, что разрешение использовать Claude для этих целей «необратимо разрушит защитные барьеры, которые мы строили годами».
Возможно, самым тревожным аспектом этого противостояния является реакция правительства. Сообщается, что после отказа официальные лица Пентагона пригрозили задействовать Закон о оборонном производстве (Defense Production Act, DPA) 1950 года. Первоначально разработанный для обеспечения поставок промышленных материалов во время Корейской войны, DPA предоставляет Президенту широкие полномочия заставлять компании отдавать приоритет государственным контрактам, считающимся необходимыми для национальной обороны.
Потенциальные последствия применения DPA:
Юридические эксперты предупреждают, что применение DPA к программному обеспечению и интеллектуальной собственности такого рода спровоцирует беспрецедентную конституционную судебную битву, проверяющую пределы государственной власти над частными инновациями.
Отказ Anthropic высвечивает растущий раскол внутри ИИ-индустрии. В то время как Anthropic удвоила ставку на свою этику «безопасность прежде всего», конкуренты пошли другими путями, ссылаясь на необходимость американского технологического превосходства над геополитическими соперниками.
В следующей таблице сравниваются текущие позиции основных ИИ-лабораторий в отношении военной интеграции:
Сравнение позиций крупнейших ИИ-лабораторий в отношении военного сотрудничества (февраль 2026 г.)
| Организация | Основная позиция по военным контрактам | Ключевые ограничения |
|---|---|---|
| Anthropic | Полный отказ от использования в летальных целях/слежке | Запрещает интеграцию с автономным оружием и массовой слежкой |
| OpenAI | Условное сотрудничество | Разрешает использование в целях «национальной безопасности»; двусмысленная позиция по летальной автономности |
| Google DeepMind | Ограниченное партнерство | Применяются ограничения Project Maven; фокус на логистике/киберзащите |
| Palantir | Полная интеграция | Активно создает платформы для летального наведения и слежки |
| Microsoft | Стратегический альянс | Предоставляет инфраструктуру/LLM для Минобороны; мандат на нелетальное использование часто игнорируется |
Такое расхождение ставит Anthropic в шаткое финансовое положение, но укрепляет её бренд среди корпоративных клиентов, заботящихся о безопасности, и этичных инвесторов.
Фраза Дарио Амодеи «Мы не можем по совести согласиться» перекликается с языком, который использовался во время внутреннего бунта в Google против Project Maven в 2018 году, но ставки в 2026 году значительно выше. Возможности нынешних передовых моделей, таких как Claude 5, намного превосходят инструменты компьютерного зрения предыдущего десятилетия.
Этическая база против государственной необходимости
Пентагон утверждает, что без доступа к лучшему американскому ИИ, США рискуют отстать от противников, которые не сталкиваются с такими этическими ограничениями. Представители министерства обороны охарактеризовали отказ Anthropic как «наивный» и «потенциально опасный» для национальных интересов.
Однако аналитики Creati.ai полагают, что Anthropic ведет более долгую игру. Строго придерживаясь своего устава, компания сохраняет целостность своих исследований в области согласования. Если бы Claude был переобучен для уничтожения целей, ограничения «полезности, честности и безвредности», которые делают модель надежной для бизнеса, могли бы быть фундаментально дестабилизированы, что привело бы к непредсказуемому поведению в невоенных приложениях.
Отчеты из штаб-квартиры Anthropic в Сан-Франциско указывают на высокий моральный дух после принятия решения, хотя тревога по поводу угроз DPA остается высокой. «Мы создавали это не для того, чтобы причинять вред людям», — сообщил Creati.ai один из старших исследователей на условиях анонимности. «Если мы перейдем эту черту, мы станем просто очередным оборонным подрядчиком».
По мере развития ситуации мир технологий наблюдает за тем, выполнит ли администрация Байдена-Харрис угрозы по применению Закона о оборонном производстве. Такой шаг охладил бы сообщество разработчиков ПО с открытым исходным кодом и мог бы загнать разработку ИИ в подполье или в офшоры.
На данный момент Anthropic остается непоколебимой. Отказ от окончательного предложения Пентагона — это больше, чем контрактный спор; это лакмусовая бумажка на управляемость сверхразумных систем. Если частная компания может успешно отказать самой мощной армии мира по этическим соображениям, это создает прецедент того, что безопасность и мораль все еще могут диктовать траекторию технологического прогресса.
Следующие недели будут решающими. Обратится ли Пентагон к конкурентам, таким как Palantir или OpenAI, чтобы восполнить пробел, или они заставят Anthropic подчиниться путем юридического принуждения? Команда Creati.ai продолжит следить за развитием этой истории, так как её исход определит отношения между ИИ и государством на десятилетия вперед.