
Пересечение искусственного интеллекта (Artificial Intelligence, AI) и национальной безопасности достигло новой нестабильной вехи. 2 апреля 2026 года администрация Трампа через Министерство юстиции (Department of Justice, DOJ) подала официальное уведомление об апелляции на значимое решение федерального суда, которое ранее заблокировало усилия Пентагона по признанию компании Anthropic, занимающейся исследованиями в области ИИ, «риском для цепочки поставок». Эта эскалация знаменует собой поворотный момент в продолжающейся борьбе за власть между частными технологическими инноваторами и федеральными оборонными ведомствами.
Юридическая битва вытекает из более широкого, обостряющегося спора, связанного с развертыванием флагманского ИИ компании Anthropic — Claude. Конфликт возник, когда переговоры по многомиллионному оборонному контракту сорвались, главным образом из-за отказа Anthropic разрешить использование своих моделей ИИ в автономных системах вооружения или для массового внутреннего наблюдения. Последующая попытка администрации ввести общеправительственный запрет на технологию компании была остановлена окружным судьей США Ритой Ф. Лин, чье решение назвало карательные меры правительства «оруэлловскими».
Трения между Пентагоном (Pentagon) и Anthropic отражают фундаментальное несовпадение традиционных ожиданий в области военных закупок и этических ограничений, накладываемых современными разработчиками ИИ. Пентагон утверждает, что оставляет за собой право использовать законтрактованную технологию любым законным способом, который он сочтет необходимым для национальной обороны. С точки зрения Министерства обороны (Department of Defense), частная фирма не должна обладать полномочиями ограничивать полезность программного обеспечения, которое она предоставляет федеральному правительству.
Напротив, позиция Anthropic сосредоточена на принципе ответственной разработки ИИ. Устанавливая «красные линии» — в частности, в отношении разработки смертоносного автономного оружия и внутреннего наблюдения — компания стремится предотвратить нецелевое использование своих возможностей генеративного ИИ (Generative AI). Эта позиция, которая совпадает с многолетними публичными обязательствами компании по безопасности и выравниванию ИИ, столкнулась с жестким регуляторным противодействием.
Следующая таблица обобщает противоречивые точки зрения, лежащие в основе этого правового спора:
| Заинтересованная сторона | Основной аргумент | Позиция по условиям контракта |
|---|---|---|
| Пентагон | Национальная безопасность требует неограниченного использования внедренной технологии. | Отклонение ограничений как вмешательства в военные оперативные требования. |
| Anthropic | Этические стандарты ИИ предотвращают использование в смертоносном автономном оружии. | Сохранение жестких красных линий для предотвращения нецелевого использования в конкретных сценариях с высоким риском. |
| Суд | Карательные меры правительства кажутся «произвольными» и потенциально «разрушительными». | Скептическое отношение к клеймлению отечественной фирмы как «потенциального противника» или «саботажника». |
Предыдущее решение окружного судьи США Риты Ф. Лин нанесло серьезный удар по стратегии администрации. В своем 43-страничном решении она не только вынесла предварительный судебный запрет против обозначения Пентагоном риска цепочки поставок, но и заблокировала директиву президента Дональда Трампа, предписывающую всем федеральным агентствам прекратить использование Claude. Формулировки судьи Лин были примечательно резкими, предполагая, что попытки правительства заклеймить американскую компанию как саботажника просто за выражение несогласия с политикой не имели законодательной поддержки.
Однако решение Министерства юстиции обжаловать это решение в Апелляционном суде девятого округа США указывает на то, что администрация готова к затяжной правовой стратегии. Девятый округ установил крайний срок до 30 апреля 2026 года для представления правительством своих официальных аргументов. Эти сроки предполагают, что юридическая неопределенность, нависшая над Anthropic — и, как следствие, над ее государственной и коммерческой клиентской базой — не исчезнет в ближайшем будущем.
Этот конфликт служит примером возникающих трений между духом Кремниевой долины и стратегическими мандатами Вашингтона. Признание крупной фирмы в области ИИ «риском для цепочки поставок» (supply chain risk) — статус, обычно резервируемый для иностранных противников — вызвало шок в технологическом секторе.
Для отраслевых наблюдателей и конкурентов последствия двояки:
Anthropic прямо заявила в судебных документах, что действия правительства по внесению в черный список уже вызвали значительные трения в бизнесе, при этом многочисленные клиенты выражают обеспокоенность по поводу долгосрочной стабильности платформы. Перспектива потери существенного дохода подчеркивает экзистенциальные риски для компании, даже несмотря на то, что она сохраняет свою позицию против неограниченного военного развертывания своих моделей.
По мере приближения крайнего срока 30 апреля технологические и юридические сообщества готовятся к столкновению с высокими ставками в апелляционном суде. Победа администрации Трампа может фундаментально изменить ландшафт отношений между государством и технологиями, предоставив федеральным агентствам широкие полномочия диктовать условия использования программного обеспечения ИИ. Победа Anthropic, однако, вероятно, укрепит независимость частных технологических фирм, установив правовой барьер против принудительного внедрения их продуктов в запрещенных сценариях использования.
На данный момент статус-кво остается напряженным противостоянием. Поскольку обе стороны стоят на своем, разрешение этого дела, вероятно, станет знаковым прецедентом, определяющим характер взаимодействия федерального правительства с сектором ИИ на долгие годы. Creati.ai продолжит внимательно следить за разбирательством в Девятом округе, пока администрация пытается восстановить свои меры против компании.