
Вашингтон, округ Колумбия — Напряженность между движением за этичный ИИ (AI) в Кремниевой долине и военным истеблишментом США достигла критической точки. Генеральный директор Anthropic Дарио Амодеи (Dario Amodei) был вызван в Пентагон для важной встречи с министром обороны Питом Хегсетом (Pete Hegseth), запланированной на конец этой недели. Саммит проходит на фоне сообщений о том, что Министерство обороны (Department of Defense, DoD) — недавно переименованное указом президента в «Военное министерство» (Department of War) — угрожает признать Anthropic «риском для цепочки поставок» (supply chain risk). Такая маркировка фактически внесет компанию в черный список федеральных контрактов и вынудит оборонных подрядчиков разорвать связи с создателем Claude.
Конфликт сосредоточен вокруг отказа Anthropic ослабить свои барьеры «Конституционного ИИ» (Constitutional AI) для военных приложений. В то время как Пентагон стремится к «неограниченному» доступу к генеративному ИИ (Generative AI) для целей, которые он считает «законными», Anthropic, по сообщениям, заблокировала конкретные запросы, связанные с наведением автономного оружия и возможностями внутреннего наблюдения.
Угроза признать Anthropic «риском для цепочки поставок» представляет собой беспрецедентную эскалацию в отношениях правительства с частным сектором ИИ. Исторически закрепленное за иностранными противниками или скомпрометированными поставщиками (такими как Kaspersky Lab или Huawei), это обозначение имело бы катастрофические коммерческие последствия для Anthropic.
Источники, близкие к переговорам, указывают на то, что министр обороны Хегсет разочарован тем, что он воспринимает как корпоративное злоупотребление полномочиями. Позиция Пентагона заключается в том, что после закупки технологии ее «законное использование» определяется главнокомандующим и Конгрессом, а не условиями обслуживания частной компании.
Если это обозначение будет утверждено, оно вызовет немедленное прекращение сотрудничества:
Катализатором этого противостояния, по всей видимости, стала секретная операция, проведенная в январе 2026 года. Отчеты The Wall Street Journal и Axios показали, что силы специальных операций США использовали модифицированную версию Claude — доступ к которой осуществлялся через AIP компании Palantir — для анализа разведывательных данных в режиме реального времени во время миссии, приведшей к поимке бывшего президента Венесуэлы Николаса Мадуро.
Хотя операция была признана успешной, руководство Anthropic, по сообщениям, было ошеломлено конкретным применением их модели, которое, по их мнению, нарушило их Универсальные стандарты использования (Universal Usage Standards) в отношении «кинетических военных действий» и «политического вмешательства». Когда инженеры Anthropic попытались внести исправления в модель, чтобы предотвратить подобные случаи в будущем, официальные лица Пентагона расценили этот шаг как акт вмешательства в операции национальной безопасности.
Заместитель министра обороны по исследованиям и инженерным разработкам Эмиль Майкл (Emil Michael) публично раскритиковал позицию компании в начале этой недели. «Конгресс пишет законопроекты, президент их подписывает, а ведомства исполняют», — заявил Майкл. «Это не демократично, когда частный поставщик программного обеспечения диктует правила ведения боевых действий вооруженным силам США. Нам нужны барьеры, да, но они должны быть настроены для ведения войны, а не для корпоративного PR».
Разрыв с Anthropic резко контрастирует с теплеющими отношениями Пентагона с другими гигантами ИИ. В рамках новой «Стратегии ускорения ИИ» (AI Acceleration Strategy) Военное министерство перешло к интеграции моделей, которые предлагают меньше точек трения в вопросах смертоносной автономии и наблюдения.
Таблица 1: Статус военной интеграции и политики основных поставщиков ИИ
| Компания | Флагманская модель | Статус военной интеграции | Ключевое отличие политики |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | Под угрозой (На рассмотрении) | Строгий «Конституционный ИИ» запрещает автономное оружие и внутреннее наблюдение. Отказывается снимать с себя ответственность за фатальные ошибки. |
| xAI | Grok 3 | Активен (Партнер GenAI.mil) | Соответствие политике «Америка прежде всего» (America First). Способствует неограниченному использованию в интересах национальной безопасности. |
| OpenAI | GPT-5 | Активен (Пилотная фаза) | Измененная политика использования для разрешения приложений «национальной безопасности». Сохраняет запреты на разработку оружия, но разрешает оперативный анализ. |
| Gemini Ultra | Активен (Project Maven) | Глубокая интеграция в логистику и киберзащиту. Фокусируется на системах с участием человека (human-in-the-loop) для смягчения этических проблем. |
В основе этого противостояния лежит фундаментальное философское расхождение. Anthropic была основана на принципах безопасности ИИ, используя «Конституцию» для обучения моделей быть полезными, безвредными и честными. Дарио Амодеи часто предупреждал о «катастрофических рисках», создаваемых несогласованным ИИ, специально ссылаясь на потенциал ИИ по снижению порога вхождения для создания биологического оружия или кибератак.
Однако Военное министерство утверждает, что в эпоху «Холодной войны 2.0» (Cold War 2.0) добровольные этические ограничения равносильны одностороннему разоружению. Поскольку такие противники, как Китай, агрессивно интегрируют ИИ в свои цепочки поражения, доктрина министра Хегсета делает упор на скорость и летальность. Инициатива Пентагона по созданию «сил ведения войны с приоритетом ИИ» (AI-first warfighting force) требует моделей, способных обрабатывать данные с дронов, генерировать решения по наведению и проводить кибернаступления без «идеологических ограничений».
Ожидается, что предстоящая встреча Амодеи и Хегсета будет напряженной. Аналитики предсказывают три возможных исхода:
Для всей индустрии ИИ результат этой встречи создаст определяющий прецедент. Он определит, останется ли «Безопасность ИИ» руководящим принципом внедрения технологии или же потребности национальной обороны в конечном итоге перевесят этические конституции Кремниевой долины.