
В редком проявлении межотраслевой солидарности, выходящей за рамки корпоративного соперничества, сотрудники Google и OpenAI объединили усилия, чтобы поддержать Anthropic в ее резонансном противостоянии с Министерством обороны США (U.S. Department of Defense). В пятницу, 27 февраля 2026 года, более 300 сотрудников Google DeepMind и более 60 сотрудников OpenAI подписали открытое письмо под названием «Нас не разделить» (We Will Not Be Divided), призывая руководство своих компаний твердо противостоять требованию Пентагона о предоставлении неограниченного доступа к передовым моделям ИИ (frontier AI models).
Эта коллективная акция знаменует собой поворотный момент в продолжающейся дискуссии о милитаризации искусственного интеллекта. Она подчеркивает растущий разрыв между разработчиками передовых моделей ИИ, которые стремятся сохранить этические барьеры, и чиновниками оборонного ведомства, рассматривающими эти технологии как критически важные активы в «военной гонке вооружений». Поскольку Пентагон (Pentagon) угрожает применить Закон о оборонном производстве (Defense Production Act), чтобы принудить к сотрудничеству, работники технологической сферы сигнализируют о том, что этические «красные линии» в отношении автономного оружия и внутренней слежки не подлежат обсуждению.
В центре этого спора находится отказ Anthropic изменить свои Условия обслуживания, чтобы удовлетворить запрос Пентагона на «неограниченное использование» ее моделей Claude. Компания Anthropic под руководством генерального директора Дарио Амодеи последовательно придерживается двух конкретных запретов в своих государственных контрактах:
Министерство обороны, представленное министром обороны Питом Хегсетом, по сообщениям, потребовало от Anthropic отказаться от этих конкретных ограничений и разрешить использование для «всех законных целей». Хотя Пентагон утверждает, что не намерен проводить незаконную слежку, он заявляет, что формулировки контракта, ограничивающие «законное» использование, создают операционные уязвимости и создают опасный прецедент контроля поставщиков над военным потенциалом.
В открытом письме сотрудников Google и OpenAI прямо поддерживается позиция Anthropic. «Мы надеемся, что наши лидеры отбросят разногласия и объединятся, чтобы продолжать отвергать текущие требования Военного министерства», — говорится в письме. Подписавшиеся утверждают, что кампания давления со стороны правительства направлена на то, чтобы разрушить этический консенсус в отрасли, сталкивая компании друг с другом.
Противостояние значительно обострилось в конце февраля 2026 года, когда Пентагон, по сообщениям, выдвинул ультиматум Anthropic. Несоблюдение требований к установленному в пятницу сроку может привести к применению Закона о оборонном производстве (Defense Production Act, DPA) — закона времен холодной войны, который позволяет президенту принуждать частные компании отдавать приоритет оборонным контрактам.
Кроме того, представители оборонного ведомства пригрозили объявить Anthropic «риском для цепочки поставок» (supply chain risk), если она не уступит требованиям. Такое обозначение, обычно резервируемое для иностранных организаций, считающихся враждебными интересам США (таких как некоторые китайские телекоммуникационные фирмы), фактически внесет Anthropic в черный список федеральных закупок и может нанести ущерб ее коммерческой репутации.
Открытое письмо осуждает эту тактику как карательную. «Военное министерство угрожает применить Закон о оборонном производстве... и все это в отместку за то, что Anthropic придерживается своих красных линий», — гласит текст. Сотрудники предупреждают, что если Пентагону удастся принудить Anthropic, он переключит свое внимание на Google и OpenAI, требуя устранения их оставшихся защитных механизмов под видом стандартизации.
Ключевой темой письма сотрудников является обвинение в том, что Пентагон использует стратегию «разделяй и властвуй». Ведя переговоры отдельно с Google, OpenAI и Anthropic, Министерство обороны создает «дилемму заключенного»: каждая компания боится, что если она будет настаивать на этических стандартах, конкурент капитулирует и получит выгодные государственные контракты.
«Они пытаются разделить каждую компанию, внушая страх, что другая уступит», — поясняется в письме. «Эта стратегия работает только в том случае, если никто из нас не знает, на чем стоят остальные».
Этот страх не беспочвенен. Отчеты указывают на то, что OpenAI и Google ранее проявляли большую гибкость в переговорах относительно «несекретного» военного использования. В начале 2024 года OpenAI незаметно удалила явный запрет на «военные действия и ведение войны» из своих политик использования, заменив его более общим запретом на «нанесение вреда», якобы для того, чтобы разрешить сотрудничество с военными в области кибербезопасности и ликвидации последствий стихийных бедствий. Однако нынешнее требование о неограниченной летальной автономии и возможностях слежки, похоже, является неприемлемым даже для сотрудников этих более лояльных компаний.
Чтобы понять ландшафт этого конфликта, необходимо сравнить текущие публичные позиции основных лабораторий ИИ в отношении интеграции с военными ведомствами.
Таблица: Основные лаборатории ИИ и их позиции по военной политике
| Компания | Основная позиция по военному использованию | Конкретные «красные линии» | Статус отношений с Пентагоном |
|---|---|---|---|
| Anthropic | Строгое условное сотрудничество | Не подлежит обсуждению: Никакой внутренней слежки. Не подлежит обсуждению: Никакого автономного смертоносного оружия. |
Враждебный: Столкновение с угрозами применения DPA и клеймом «риска для цепочки поставок». |
| OpenAI | Совместная / Эволюционирующая | В целом выступает против автономного оружия. Политика изменилась в 2024 году, чтобы разрешить использование в целях «национальной безопасности». |
Активные переговоры: Генеральный директор Сэм Альтман, по сообщениям, добивается гарантий, аналогичных Anthropic. |
| Осторожная / Внутренняя напряженность | Принципы ИИ (2018): Никакого оружия или слежки, нарушающих права человека. Запрет технологий, основной целью которых является нанесение вреда. |
Напряженный: Сотрудники давят на руководство (Джефф Дин), требуя соблюдения обязательств 2018 года. | |
| Microsoft | Стратегический партнер | Соответствует законности заказчика (Минобороны). Предоставляет инфраструктуру для секретных моделей. |
Интегрированный: Глубоко внедрена в оборонную инфраструктуру через партнерство Azure/OpenAI. |
Нынешняя волна активизма проводит прямые параллели с полемикой вокруг проекта Google «Project Maven» в 2018 году. В тот период тысячи сотрудников Google подписали петицию против контракта с Пентагоном об использовании ИИ для анализа видео с дронов, что в конечном итоге вынудило компанию дождаться истечения срока действия контракта и выпустить набор «Принципов ИИ» (AI Principles), запрещающих использование ИИ Google для создания оружия.
Однако геополитический климат 2026 года заметно отличается. С усилением глобальной конкуренции в области ИИ и воспринимаемыми угрозами со стороны стран-соперников давление с целью развертывания возможностей «суверенного ИИ» возросло. Письмо «Нас не разделить» говорит о том, что работники технологической сферы остро осознают: этические победы 2018 года размываются.
«Это письмо служит для создания общего понимания и солидарности перед лицом этого давления», — написали сотрудники. В коалицию входят инженеры, исследователи и специалисты по вопросам политики, которые утверждают, что развертывание ИИ в военных действиях требует строгой подотчетности человека — характеристики, которой изначально лишены полностью автономные системы.
Реакция корпоративного руководства была неоднозначной, но указывает на то, что давление работает. После публикации письма появились сообщения о том, что генеральный директор OpenAI Сэм Альтман обратился к сотрудникам, заявив, что он также добивается соглашения с Пентагоном, которое включает красные линии, аналогичные Anthropic. Это говорит о том, что «единый фронт», к которому призывали сотрудники, может формироваться и на уровне руководства.
В Google внутреннее давление направлено на Джеффа Дина, главного научного сотрудника Google DeepMind. В отдельном внутреннем письме, подписанном более чем 100 сотрудниками Google, содержится призыв к нему гарантировать, что Google не будет подрывать позицию Anthropic.
Противостояние между Anthropic и Пентагоном, усиленное поддержкой сотрудников Google и OpenAI, представляет собой критический момент в истории управления технологиями. Оно ставит фундаментальный вопрос: Кто в конечном итоге решает, как используется мощный ИИ — правительство, которое его финансирует, или создатели, которые понимают его риски?
Если Пентагону удастся использовать Закон о оборонном производстве, чтобы принудить Anthropic, это может создать прецедент, согласно которому интересы национальной безопасности имеют приоритет над этическими обязательствами частного сектора. И наоборот, если «единый фронт» работников технологической отрасли устоит, это может заставить военных признать, что даже в условиях войны использование искусственного интеллекта должно иметь границы.
По мере того как срок в пятницу проходит, а индустрия ожидает следующего шага Пентагона, солидарность, проявленная этими 360+ сотрудниками, служит напоминанием о том, что человеческий фактор в разработке ИИ остается мощной политической силой.
Этот отчет основан на событиях, произошедших до 1 марта 2026 года.