
В переломный момент для индустрии искусственного интеллекта ландшафт государственных оборонных контрактов был радикально изменен в течение одного 24-часового окна. В пятницу, 28 февраля 2026 года, генеральный директор OpenAI Сэм Альтман объявил о знаковом соглашении по развертыванию передовых моделей компании в закрытых сетях Пентагона (Pentagon). Это заявление резко контрастировало с судьбой конкурирующей лаборатории Anthropic, которую администрация Трампа официально признала «риском для цепочки поставок» (supply chain risk), фактически закрыв ей доступ к федеральным контрактам.
Эти одновременные события стали кульминацией многомесячного обострения напряженности между передовыми лабораториями ИИ (AI) Кремниевой долины и Белым домом, полным решимости обеспечить «неограниченный доступ» к технологиям для целей национальной обороны. В то время как OpenAI успешно справилась с требованиями администрации благодаря тому, что она называет «техническими барьерами безопасности», отказ Anthropic уступить в своих принципах конституционного ИИ (Constitutional AI) привел к беспрецедентным карательным мерам против американской компании.
Поздно вечером в пятницу Сэм Альтман (Sam Altman) подтвердил, что OpenAI достигла соглашения с Министерством обороны, которое нынешняя администрация и Альтман в своем заявлении называют «Военным министерством» (Department of War, DoW). Сделка предоставляет военным доступ к передовым моделям OpenAI для секретных операций. Этот шаг, по мнению критиков, противоречит первоначальному некоммерческому уставу компании, но Альтман защищает его как необходимую эволюцию безопасности ИИ (AI safety) в условиях демократического управления.
Соглашение сосредоточено на архитектуре развертывания «только в облаке» (cloud-only). По заявлению OpenAI, такая структура позволяет им поддерживать «стек безопасности» (safety stack), который обеспечивает соблюдение определенных «красных линий» даже в засекреченных средах.
Ключевые положения сделки OpenAI-Пентагоном (Pentagon):
«Во всех наших взаимодействиях Военное министерство проявляло глубокое уважение к безопасности и желание партнерства для достижения наилучшего возможного результата», — написал Альтман в заявлении на платформе X. Он также подчеркнул, что контракт OpenAI предлагает «лучшие гарантии и более ответственные защитные механизмы», чем предыдущие соглашения конкурентов, косвенно ссылаясь на ныне расторгнутые договоренности Anthropic.
Пока руководство OpenAI праздновало новое партнерство, Anthropic столкнулась с экзистенциальным регуляторным давлением. Конфликт, как сообщается, достиг точки кипения в четверг, когда Anthropic отклонила ультиматум Пентагона об удалении специфических ограничений, касающихся автономного вооружения и возможностей слежки.
Министр обороны Пит Хегсет (Pete Hegseth) ответил резким упреком, назвав отказ компании «мастер-классом по высокомерию и предательству». В результате Министерство обороны официально признало Anthropic риском для цепочки поставок (supply chain risk). Эта классификация, исторически резервируемая для иностранных организаций, считающихся угрозой национальной безопасности (таких как Huawei или «Лаборатория Касперского»), теперь применяется к стартапу из Сан-Франциско, в который активно инвестировали Amazon и Google.
Президент Трамп усилил риторику в Truth Social, охарактеризовав руководство компании как «радикально левых и воук-активистов», пытающихся «выкручивать руки» военным. Администрация издала директиву всем федеральным агентствам «немедленно прекратить» использование технологий Anthropic, хотя для определенных критически важных оборонных систем был предоставлен шестимесячный переходный период для перехода на альтернативных поставщиков — вероятно, OpenAI или Palantir.
Этот раскол подчеркивает фундаментальные разногласия во взглядах на роль частных технологических фирм в обеспечении национальной безопасности. Администрация Трампа ясно дала понять, что рассматривает отказ от выполнения военных требований как отсутствие патриотизма, в то время как Anthropic настаивает на том, что ее отказ основан на этических обязательствах, которые выше государственных директив.
В следующей таблице изложены критические различия в подходах двух ведущих лабораторий ИИ к этим переговорам с высокими ставками:
Таблица: Сравнительный анализ оборонных стратегий OpenAI и Anthropic
| Показатель | Подход OpenAI | Подход Anthropic |
|---|---|---|
| Основная позиция | Взаимодействие с «техническими барьерами» | Отказ на основе этических «красных линий» |
| Статус контракта | Активен, расширенный секретный доступ | Расторгнут, признан «риском для цепочки поставок» |
| Ключевая уступка | Согласие на условия «Военного министерства (Department of War)» | Отказ от неограниченной модификации моделей |
| Позиция по слежке | Запрещена условиями контракта | Отказ от реализации возможности на техническом уровне |
| Отношения с адм. | Сотрудничество, «патриотический» брендинг | Враждебность, клеймо «Woke/Риск» |
| Модель развертывания | Только облако (контроль сохранен) | Отказ от безусловного периферийного развертывания |
Признание Anthropic риском для цепочки поставок имеет огромные юридические и экономические последствия. Это запрещает не только прямые государственные контракты, но и фактически запрещает любому федеральному подрядчику использовать инструменты Anthropic в своих рабочих процессах. Для оборонно-промышленного комплекса, который сильно зависит от взаимосвязанных цепочек поставок программного обеспечения, это вынуждает такие компании, как Lockheed Martin, Booz Allen Hamilton и, возможно, даже облачных провайдеров, таких как AWS, изолировать или удалять модели Claude от Anthropic из своих экосистем для соблюдения нормативных требований.
Юристы ожидают ожесточенной судебной битвы. Anthropic пообещала оспорить это решение, назвав его «юридически необоснованным» и актом «запугивания». Компания утверждает, что исполнительная власть не имеет полномочий вносить отечественную компанию в черный список лишь из-за договорного спора по поводу условий обслуживания. Однако в соответствии с Законом об оборонном производстве (Defense Production Act), который администрация пригрозила задействовать, федеральное правительство обладает широкими полномочиями по управлению промышленными ресурсами для нужд национальной обороны.
Новости вызвали шок в секторе ИИ. Инвесторы уже переоценивают долгосрочную стоимость лабораторий, ориентированных на «безопасность прежде всего», которые рискуют оттолкнуть государственных клиентов. Ожидается, что оценка OpenAI вырастет благодаря уверенности в долгосрочных государственных доходах, в то время как Anthropic может столкнуться с кризисом ликвидности, если черный список отпугнет коммерческих корпоративных клиентов, опасающихся регуляторных последствий.
Более того, использование администрацией термина «Военное министерство» (Department of War) — возврат к названию, существовавшему до 1947 года — сигнализирует о более широком идеологическом сдвиге. Это предполагает более агрессивную, ориентированную на боевые действия позицию оборонной политики США, требующую полной лояльности от своих промышленных партнеров.
Скорость, с которой ухудшились отношения между Anthropic и Белым домом, подчеркивает волатильность нынешней нормативной среды.
Таблица: Ключевые события, приведшие к черному списку
| Дата/Время | Описание события | Ключевое лицо |
|---|---|---|
| Июль 2025 | Anthropic подписывает первоначальный пилотный контракт на 200 млн долларов. | Минобороны / Anthropic |
| 26 фев 2026 | Пентагон выдвигает ультиматум о «неограниченном доступе». | Министр обороны Хегсет |
| 27 фев 2026 | Anthropic отклоняет требования; пропускает дедлайн в 17:01. | Гендиректор Дарио Амодеи |
| 27 фев 2026 | Трамп приказывает ввести федеральный запрет; Хегсет вешает ярлык «Риск». | Белый дом |
| 28 фев 2026 | OpenAI объявляет о сделке с «Военным министерством». | Сэм Альтман |
| 28 фев 2026 | Anthropic обещает оспорить решение в суде. | Юридический отдел Anthropic |
Когда пыль после этой хаотичной недели уляжется, послание из Вашингтона станет недвусмысленным: в гонке за превосходство в области ИИ правительство США требует от своих поставщиков подчинения. OpenAI предпочла адаптироваться, создав структуру, которая позволяет ей обслуживать «Военное министерство», утверждая при этом, что она сохраняет свою миссию по обеспечению безопасности. Anthropic, твердо придерживаясь своих принципов, теперь сталкивается со всей мощью федерального аппарата.
Исход юридического вызова Anthropic, вероятно, определит границы корпоративной автономии в эпоху ИИ национальной безопасности. Пока же Пентагон сделал свой выбор, и OpenAI заняла освободившуюся нишу.