
В стремительно меняющемся ландшафте, где искусственный интеллект (Artificial Intelligence, AI) пересекается с национальной безопасностью, OpenAI официально раскрыла параметры своего неоднозначного нового партнерства с Министерством обороны (Department of Defense, DoD). Это откровение появилось всего через несколько дней после бурных выходных, в ходе которых конкурент Anthropic был назван федеральными властями «риском для цепочки поставок», что вывело его чат-бота Claude на первое место в App Store.
Реагируя на общественный резонанс, генеральный директор OpenAI Сэм Альтман (Sam Altman) признал, что реализация соглашения была «определенно поспешной» — это откровенное признание подчеркивает интенсивное давление, подстегивающее текущую гонку вооружений в сфере ИИ. Хотя сделка обеспечивает OpenAI ключевую роль в оборонной инфраструктуре США, она вызвала значительную переоценку настроений пользователей, подняв критические вопросы об этических границах ИИ, используемого в качестве оружия.
В блоге, опубликованном поздно вечером в воскресенье, OpenAI изложила конкретные условия своего секретного соглашения о развертывании. Компания подчеркнула, что, углубляя связи с Пентагоном, она успешно согласовала «не подлежащие обсуждению» защитные барьеры, призванные предотвратить антиутопические сценарии.
Согласно раскрытой информации, соглашение устанавливает три основные «красные линии», которые Министерство обороны обязалось соблюдать по контракту:
«Министерство обороны согласно с этими принципами, отражает их в законах и политике, и мы закрепили их в нашем соглашении», — заявил Альтман, пытаясь успокоить скептически настроенную общественность. Сделка, оцениваемая в 200 миллионов долларов, сосредоточена на логистике, кибербезопасности и анализе данных в секретных облачных средах, а не на прямом боевом применении.
Время объявления вызвало не меньше пристального внимания, чем само содержание. Признание Сэма Альтмана о том, что сделка была «определенно поспешной», наводит на мысль, что OpenAI действовала быстро, чтобы заполнить вакуум, оставшийся после отказа Anthropic принять условия Пентагона.
Отраслевые аналитики предполагают, что скорость OpenAI была стратегическим маневром для закрепления позиции основного государственного партнера до того, как смогут вмешаться другие конкуренты. Однако эта спешка, похоже, привела к обратным результатам в плане связей с общественностью. Отсутствие превентивной стратегии коммуникации позволило слухам о «вооруженном GPT» бесконтрольно распространяться, подпитывая мнение о том, что OpenAI отказалась от своих принципов безопасности ради оборонных контрактов.
Пока OpenAI справляется с последствиями, конкурент Anthropic стал неожиданным победителем в суде общественного мнения. Конфликт начался, когда Anthropic отказалась предоставить Пентагону неограниченный доступ к своим моделям «Opus 4.6», сославшись на невозможность «с чистой совестью» позволить удаление проверок безопасности в отношении автономного оружия.
Последующий шаг администрации Трампа (Trump) по внесению Anthropic в список «рисков для цепочки поставок» и запрету её программного обеспечения в федеральных системах был направлен на наказание фирмы. Вместо этого он мобилизовал потребительский рынок. Пользователи, воспринявшие позицию Anthropic как принципиальную защиту человеческой безопасности, устремились на платформу.
К утру понедельника Claude от Anthropic обошел ChatGPT и стал самым популярным бесплатным приложением в Apple App Store — это исторический успех для конкурирующей платформы. Всплеск был дополнительно подогрет открытым письмом, подписанным сотрудниками как Google, так и OpenAI, выражающим солидарность с решением Anthropic отдать приоритет этическим «красным линиям» перед государственными контрактами.
Расходящиеся пути OpenAI и Anthropic иллюстрируют сложные компромиссы, с которыми сталкиваются ИИ-компании при взаимодействии с оборонным сектором. В следующей таблице приведены основные различия в их текущих отношениях с Министерством обороны.
Таблица: Оборонная позиция OpenAI и Anthropic
| Характеристика | OpenAI | Anthropic |
|---|---|---|
| Статус контракта | Действующее секретное соглашение ($200 млн) | Переговоры провалены / Федеральный запрет |
| Основные «красные линии» | Договорной запрет на автономное оружие и слежку | Отказ от удаления обходов системы безопасности |
| Государственный статус | Доверенный партнер | Риск для цепочки поставок |
| Реакция рынка | Общественное возмущение; тренд #DeleteChatGPT | Взлет на 1-е место в App Store |
| Масштаб развертывания | Только облако; Логистика и кибероборона | Нет (Только коммерческое использование) |
События прошлой недели знаменуют собой поворотный момент в коммерциализации систем уровня сильного ИИ (Artificial General Intelligence, AGI). Стратегия OpenAI опирается на веру в то, что она может лучше всего влиять на политику в области военного ИИ изнутри, внедряя свои принципы безопасности в обязательные контракты. Альтман утверждает, что, взаимодействуя с Министерством обороны, OpenAI гарантирует ответственное использование самых мощных моделей.
Напротив, Anthropic сделала ставку на идею о том, что некоторые границы не должны пересекаться даже ценой прибыльных государственных доходов. Восторженный отклик рынка на Claude предполагает, что значительная часть пользовательской базы ценит этот этический абсолютизм.
Когда пыль осядет, индустрия останется с двумя различными моделями управления ИИ: взаимодействие с компромиссом или принципиальная изоляция. Теперь, когда OpenAI глубоко интегрирована в инфраструктуру Пентагона, эффективность её «красных линий» будет проверяться в режиме реального времени. Тем временем новое доминирование Anthropic на рынке доказывает, что в эпоху ИИ этика действительно может быть мощным отличительным признаком продукта.