
В условиях резкой эскалации напряженности между Кремниевой долиной и Вашингтоном необычная коалиция ведущих исследователей в области искусственного интеллекта (Artificial Intelligence, ИИ) объединилась, чтобы бросить вызов правительству Соединенных Штатов. Более 30 сотрудников гигантов ИИ OpenAI и Google DeepMind подали amicus brief (заключение «друга суда») в федеральный суд, выразив поддержку конкурирующей фирме Anthropic в её резонансном иске против Министерства обороны (DoD). Эта редкая межкорпоративная солидарность подчеркивает переломный момент в управлении ИИ, отражая глубокую обеспокоенность отрасли по поводу чрезмерного регулирования, мандатов национальной безопасности и этичного развертывания передовых систем ИИ (frontier AI systems).
Юридическое противостояние возникло из-за спорного решения администрации Трампа в конце февраля 2026 года официально классифицировать Anthropic как «национальную угрозу цепочке поставок (supply-chain risk)». Исторически эта жесткая классификация предназначалась исключительно для иностранных противников и международных компаний с сомнительными связями с конкурирующими государствами, такими как китайский технологический гигант Huawei. Присвоение такого подрывающего репутацию статуса отечественной ИИ-компании из Сан-Франциско, основанной бывшими руководителями OpenAI и поддерживаемой миллиардами долларов американского капитала, представляет собой радикальный и неожиданный сдвиг в том, как правительство подходит к технологическим закупкам.
Санкции против Anthropic вступили в силу сразу после полного провала переговоров по контракту с Пентагоном. Согласно официальным судебным документам, Anthropic решительно отказалась смягчать свою строгую политику использования, которая прямо запрещает применение её моделей ИИ Claude в двух активно обсуждаемых военных целях:
Это обозначение серьезно ограничивает операционные возможности Anthropic в государственном секторе, фактически запрещая правительственным учреждениям и оборонным подрядчикам интегрировать технологии Anthropic в свои рабочие процессы. В ответ на то, что компания считает экзистенциальной угрозой, Anthropic подала обширную 48-страничную жалобу в федеральный суд Сан-Франциско, добиваясь временного судебного запрета на введение санкций и заявляя, что данное обозначение является фундаментально незаконным.
В условиях жесткой конкуренции в сфере генеративного ИИ (Generative AI) OpenAI, Google и Anthropic обычно ведут ожесточенную борьбу за доминирование на рынке, корпоративные контракты и внимание потребителей. Однако беспрецедентный шаг Пентагона способствовал быстрому сплочению рядов во всем секторе. Спустя всего несколько часов после того, как Anthropic подала иск, исследователи из её крупнейших конкурентов официально представили в суд amicus brief, чтобы подкрепить ходатайство Anthropic.
Подписавшие документ лица включают весьма влиятельных фигур в секторе искусственного интеллекта, действующих от своего имени, а не как официальные представители корпораций. Их объединяет общее убеждение в том, что защитные барьеры безопасности являются необходимостью, а не опциональной роскошью.
Ключевые фигуры, поддержавшие Amicus Brief:
| Имя подписавшего | Аффилиация с компанией | Указанная должность/роль |
|---|---|---|
| Jeff Dean | Google DeepMind | Главный научный сотрудник и руководитель Gemini |
| Zhengdong Wang | Google DeepMind | Исследователь ИИ |
| Alexander Matt Turner | Google DeepMind | Исследователь ИИ |
| Noah Siegel | Google DeepMind | Исследователь ИИ |
| Gabriel Wu | OpenAI | Исследователь ИИ |
| Pamela Mishkin | OpenAI | Исследователь ИИ |
| Roman Novak | OpenAI | Исследователь ИИ |
(Примечание: в таблице выше представлена лишь малая часть из почти 40 подписавших лиц, которые преодолели корпоративные разногласия, чтобы защитить общие этические стандарты.)
В юридическом документе сотрудников приводятся убедительные процедурные и этические аргументы против жестких действий правительства. Они утверждают, что нынешние передовые модели ИИ еще не являются достаточно надежными или прозрачными, чтобы им можно было доверить принятие решений о летальном поражении целей. Более того, интеграция мощного ИИ с огромными наборами данных создает серьезную угрозу для основ общественной жизни и конфиденциальности.
В документе содержится явное предупреждение суду: «Если это усилие по наказанию одной из ведущих ИИ-компаний США будет допущено, оно, несомненно, будет иметь последствия для Соединенных