
Обостряющийся спор между Anthropic и Министерством обороны США (U.S. Department of Defense, DoD) достиг критической точки перелома, подчеркивая глубоко укоренившиеся трения между частным управлением ИИ и требованиями современной оборонной стратегии. В марте 2026 года Пентагон официально классифицировал базирующуюся в Сан-Франциско компанию по разработке искусственного интеллекта как «риск для цепочки поставок (supply chain risk)». Этот беспрецедентный шаг, который фактически закрывает Anthropic доступ к определенным оборонным контрактам, служит показательным примером в более широкой борьбе за определение границ развертывания ИИ в военных операциях.
В основе конфликта лежит фундаментальное разногласие по вопросам автономии и надзора. Anthropic, известная своим вниманием к безопасности ИИ (AI safety) и конституционному ИИ (constitutional AI), стремится поддерживать определенные «красные линии» (redlines) в отношении использования своей флагманской модели Claude. Эти ограничения, по заявлению компании, запрещают применение технологии в сценариях, связанных с массовой внутренней слежкой или полностью автономными системами летального оружия. Пентагон, однако, занял твердую позицию, требуя от подрядчиков работы в рамках концепции «любого законного использования» (all lawful use), утверждая, что жесткие этические ограничения, навязанные компаниями, препятствуют оперативной гибкости и стратегическому доминированию военных.
Присвоение крупному отечественному поставщику технологий статуса «риск для цепочки поставок» — это шаг, редко встречающийся в технологическом секторе и обычно закрепляемый за организациями, связанными с иностранными противниками. Пентагон сослался на конкретные юридические полномочия, включая 10 U.S.C. § 3252 и Федеральный закон о безопасности цепочки поставок при закупках 2018 года (FASCSA), чтобы официально оформить это решение.
Для Министерства обороны вопрос заключается не только в политике; речь идет о надежности инструментов, используемых военнослужащими. Представители оборонного ведомства выразили обеспокоенность тем, что модель ИИ со «встроенными» этическими ограничениями может вести себя непредсказуемо в полевых условиях. Если система спроектирована так, чтобы отклонять команды на основе собственной внутренней «конституции безопасности», военные утверждают, что она может дать сбой в критический момент, фактически «загрязняя» цепочку поставок неэффективными или ненадежными активами.
Административные последствия наступили незамедлительно. Вслед за директивой различные федеральные агентства начали процесс поэтапного отказа от технологий Anthropic; ожидается, что переходный период продлится примерно шесть месяцев. Хотя влияние на общий коммерческий бизнес Anthropic остается ограниченным, поскольку подавляющая часть ее доходов поступает от партнерств в частном секторе, символический и стратегический вес этого исключения значителен.
Риторика вокруг спора становится все более резкой. Эмиль Майкл (Emil Michael), директор по технологиям Пентагона и заместитель министра обороны по исследованиям и разработкам, недавно раскритиковал позицию Anthropic, назвав настойчивость компании в соблюдении собственных протоколов безопасности «безумием» (bananas) во время публичного выступления.
Точка зрения Майкла отражает более широкие настроения в нынешней администрации: частные лаборатории ИИ не должны диктовать параметры военного взаимодействия. В интервью Майкл подчеркнул, что предоставление компании ИИ права вето на то, как военные используют ее инструменты, подорвет единоначалие. Он охарактеризовал переговоры как зашедшие в тупик, твердо заявив, что Пентагон «идет дальше» и нуждается в партнерах, которые разделяют весь спектр военных целей, а не в тех, кто стремится навязать свои собственные моральные рамки оборонным операциям.
| Характеристика | Позиция Anthropic | Перспектива Пентагона |
|---|---|---|
| Политика использования ИИ | Настаивает на строгих «красных линиях», запрещающих автономное оружие и массовую слежку | Требует доступа для «любого законного использования» для обеспечения полной оперативной гибкости |
| Операционный контроль | Выступает за безопасное, согласованное с человеком развертывание ИИ для предотвращения катастрофического злоупотребления | Рассматривает навязанные компанией ограничения как вмешательство в военное командование |
| Статус в цепочке поставок | Оспаривает назначение, называя его превышением исполнительной власти | Ссылается на 10 U.S.C. § 3252, заявляя, что не соответствующая требованиям технология представляет риск |
| Цель отрасли | Сосредоточена на разработке безопасного, надежного и конституционного ИИ | Приоритезирует «доминирование в сфере ИИ» и скорость в условиях глобальной конкуренции |
В ответ на присвоение статуса Anthropic инициировала судебное разбирательство в федеральном суде. Компания утверждает, что действия Пентагона необоснованны и поднимают конституционные вопросы, касающиеся свободы слова и надлежащей правовой процедуры. Добиваясь временного запретительного судебного приказа (temporary restraining order) и предварительного судебного запрета (preliminary injunction), Anthropic стремится приостановить реализацию статуса риска для цепочки поставок на время рассмотрения дела.
Юристы, наблюдающие за делом, предполагают, что оно, вероятно, станет проверкой пределов исполнительной власти в сфере закупок ИИ. Центральный юридический вопрос заключается в том, может ли правительство внести американскую компанию в черный список за ее внутреннюю политику безопасности, когда эта политика не нарушает существующие законы, а скорее превосходит их. Если суды вынесут решение в пользу Пентагона, это может создать мощный прецедент для будущих отношений между государством и технологическим сектором, потенциально вынуждая фирмы ИИ полностью приводить свои коммерческие продукты в соответствие с военными требованиями для сохранения права на федеральные контракты.
Это противостояние — не просто двусторонний вопрос между одной компанией и одним государственным ведомством; это предварительный просмотр проблем, с которыми столкнется мировая индустрия ИИ по мере ускорения интеграции в критическую инфраструктуру. Поскольку модели ИИ глубоко внедряются во все сферы, от логистики и разведывательного анализа до систем противоракетной обороны, стремление правительства к контролю неизбежно столкнется с желанием частного сектора обеспечить безопасность и управлять общественным восприятием.
В результате этого конфликта наметились несколько ключевых последствий для отрасли в целом:
Когда уляжется пыль после немедленных административных действий, спор между Anthropic и Пентагоном, вероятно, останется в памяти как момент, когда закончился «медовый месяц» интеграции ИИ и обороны. Эра свободного сотрудничества, характеризовавшаяся быстрыми экспериментами и взаимной выгодой, переходит в период жесткого регулирования и стратегического выравнивания.
Для заинтересованных сторон в экосистеме ИИ урок ясен: соображения национальной безопасности теперь являются основным двигателем политики в области ИИ. Независимо от того, поддержат ли суды решение Пентагона или заставят пойти на компромисс, отрасль получила предупреждение. Способности к инновациям и масштабированию уже недостаточно; чтобы оставаться игроком на высших уровнях государственного управления, компании ИИ должны смириться с реальностью того, что их программное обеспечение в конечном итоге может быть развернуто в средах — и для целей — которые выходят далеко за рамки их первоначальных уставов безопасности. Поскольку гонка за доминирование в области ИИ продолжает обостряться во всем мире, остается открытым вопрос, смогут ли США успешно интегрировать самое передовое в мире программное обеспечение, не ставя под угрозу те самые ценности, для защиты которых эти технологии были созданы.