
В ситуации, которая подчеркивает все более сложные отношения между компаниями в сфере искусственного интеллекта (Artificial Intelligence, AI) и государственными интересами, чат-бот Claude от компании Anthropic поднялся на вторую позицию в чартах бесплатных приложений американского App Store. Этот стремительный взлет, произошедший в выходные 28 февраля 2026 года, парадоксальным образом случился сразу после серьезного конфликта с Пентагоном и последующей директивы Белого дома, запрещающей федеральным агентствам использовать эту технологию.
Этот рывок поставил Claude сразу за ChatGPT от OpenAI и впереди Gemini от Google, сигнализируя о сдвиге в настроениях потребителей, где корпоративная этика и сопротивление государственному давлению могут работать как мощный, хотя и нетрадиционный, маркетинговый двигатель. Для отраслевых наблюдателей этот момент представляет собой ключевой пример «Эффекта Стрейзанд» (Streisand Effect), когда попытки подавить или маргинализировать платформу в конечном итоге усиливают её видимость и привлекательность.
Катализатором этого рыночного сбоя стал срыв переговоров с высокими ставками между Anthropic и Министерством обороны США (DoD). Источники, близкие к делу, подтверждают, что Пентагон стремился интегрировать передовые модели Anthropic в оборонные рабочие процессы с требованием отказаться от определенных «защитных барьеров» (safety guardrails). В частности, представители министерства обороны, по сообщениям, требовали возможности использовать ИИ для «всех законных целей» — широкая категория, которая, как опасалось руководство Anthropic, откроет дверь для массовой внутренней слежки и создания полностью автономных систем летального оружия.
Генеральный директор Anthropic Dario Amodei публично отверг эти условия, заявив, что компания не может «с чистой совестью» согласиться на требования, которые перечеркнут их конституцию ИИ (AI constitution) и протоколы безопасности. Ответ Вашингтона был быстрым и карательным. К пятнице администрация объявила Anthropic «риском для цепочки поставок» (supply chain risk) — классификация, обычно резервируемая для иностранных противников или скомпрометированных поставщиков, — и распорядилась прекратить все федеральные контракты со стартапом.
Хотя такое обозначение традиционно нанесло бы серьезный удар по оборонному подрядчику, основная ценность Anthropic заключается в её программном обеспечении для потребителей и предприятий. Публичный характер спора, характеризующийся критикой президента Трампа в адрес руководства компании как «святош», похоже, сплотил пользовательскую базу, обеспокоенную вопросами конфиденциальности и неконтролируемой милитаризацией искусственного интеллекта.
Последующий всплеск загрузок позволяет предположить, что значительная часть широкой общественности рассматривает отказ Anthropic не как неповиновение, а как признак надежности. В эпоху, когда вопросы конфиденциальности данных имеют первостепенное значение, история об ИИ-компании, отказывающейся от выгодных государственных контрактов ради защиты этических границ, вызвала глубокий резонанс.
Аналитика от Sensor Tower указывает на то, что Claude находился за пределами топ-20 приложений в начале февраля. Однако после новостей о запрете и транслировавшихся по телевидению дискуссий между руководителями Пентагона и Anthropic, количество загрузок ускорилось более чем на 300% за 48-часовой период.
Этот феномен поднимает критические вопросы для экономических моделей индустрии ИИ. Исторически «согласование» (alignment) обсуждалось в технических терминах относительно поведения модели. Это событие переосмысливает согласование как бренд-актив — соответствие ценностям пользователей против воспринимаемого государственного произвола. Пользователи голосуют своим дисковым пространством, фактически выбирая «диссидентский» ИИ вместо конкурентов, которые заняли более податливую позицию в партнерстве с правительством.
Контраст с основным конкурентом Anthropic, компанией OpenAI, не мог быть более разительным. Спустя всего несколько часов после того, как Белый дом издал директиву против Anthropic, появились сообщения о том, что OpenAI финализировала новое соглашение с Pentagon на поставку возможностей ИИ для секретных военных сетей.
Это расхождение создало четкое разделение на рынке:
Хотя OpenAI сохраняет первое место в App Store, вероятно, благодаря преимуществу первопроходца и огромной существующей базе пользователей, внезапная близость Claude свидетельствует о том, что рыночный сегмент «этичного ИИ» гораздо масштабнее, чем предполагалось ранее.
Текущее положение трех ведущих приложений ИИ раскрывает действующую конкурентную динамику. В следующей таблице обобщен статус ведущих чат-ботов с ИИ в американском App Store по состоянию на 1 марта 2026 года.
Рейтинг ИИ в App Store (Бесплатные чарты США)
| Место | Название приложения | Ключевой контекст и недавние драйверы |
|---|---|---|
| 1 | ChatGPT (OpenAI) | Сохраняет лидерство на рынке; недавно обеспечил расширение контрактов с Министерством обороны США для развертывания в секретных сетях. |
| 2 | Claude (Anthropic) | Поднялся из топ-20; импульсом послужили статус «риска для цепочки поставок» и публичный отказ от пунктов о слежке. |
| 3 | Google Gemini | Поддерживает устойчивый рост; использует глубокую интеграцию с экосистемами Android и Workspace. |
«Взлет Claude» усложняет ситуацию для регуляторов и политиков. Попытка администрации использовать тактику исключения с рынка (статус риска для цепочки поставок) для принуждения к соблюдению требований привела к обратному результату в потребительской сфере. Это ограничивает рычаги давления правительства; если запрет компании делает её более популярной, государство теряет свой основной внерегуляторный метод воздействия.
Более того, это противостояние подчеркивает хрупкость текущей эры «добровольных обязательств» в области безопасности ИИ. Отказ Anthropic доказывает, что добровольные защитные барьеры имеют значение только до тех пор, пока они не вступают в конфликт с требованиями могущественного клиента. Удерживая позицию, Anthropic создала прецедент того, что обязательства по безопасности являются обязательными ограничениями, а не просто маркетинговым текстом.
Юридические эксперты предсказывают, что Anthropic, скорее всего, оспорит статус «риска для цепочки поставок» в суде, аргументируя это тем, что отказ от создания autonomous weapons (автономного оружия) не является угрозой безопасности. Исход такой юридической битвы определит права технологических компаний отказываться от государственной работы по этическим соображениям, не сталкиваясь с ответными черными списками.
Когда пыль после этой хаотичной недели усядется, сигнал от рынка будет однозначным: этика является конкурентным дифференциатором. Ставка Anthropic на приоритет своей конституции безопасности над доходами от Пентагона на данный момент окупилась в валюте пользовательского внимания и доверия. Удастся ли сохранить этот импульс за пределами текущего цикла новостей, еще предстоит увидеть, но подъем Claude на второе место служит мощным сигналом о том, что общественность внимательно следит за тем, как ИИ-компании справляются с моральными сложностями грядущего десятилетия.