
В ходе ошеломляющего поворота событий, подчеркивающего растущую важность этического соответствия в секторе искусственного интеллекта (Artificial Intelligence, AI), Claude от компании Anthropic зафиксировал исторический скачок в привлечении пользователей. По состоянию на 6 марта 2026 года отчеты подтверждают, что платформа регистрирует более одного миллиона новых регистраций ежедневно, что вывело приложение Claude на первое место как в Apple App Store, так и в Google Play Store в Соединенных Штатах. Этот стремительный взлет напрямую совпадает с углубляющимся общественным резонансом по поводу военных контрактов, сигнализируя о потенциальном сдвиге в том, как потребители оценивают и выбирают свои основные инструменты ИИ.
Внезапный сдвиг в рыночной динамике является не просто отражением обновлений функций или показателей производительности, но, по-видимому, глубоко укоренен в более широком социально-политическом контексте. В то время как ChatGPT от OpenAI долгое время удерживал доминирующее положение в сфере генеративного ИИ (Generative AI), недавние события, связанные с Министерством обороны США (DoD), катализировали миграцию пользователей, ищущих альтернативы, которые более тесно соответствуют конкретным этическим принципам.
Движущей силой этого беспрецедентного роста стал «провал сделки с Пентагоном» (Pentagon deal debacle) — серия событий, создавших резкий контраст между ведущими игроками отрасли. Конкуренция обострилась, когда Министерство обороны (DoD) начало поиск партнеров для развертывания передовых моделей ИИ для секретных приложений.
Anthropic, выделяющаяся своим подходом «Конституционального ИИ» (Constitutional AI), по сообщениям, отказалась принять условия Пентагона без внедрения «жестких ограничений» (heavy guardrails). Компания выразила обеспокоенность по поводу потенциального использования ее технологии в автономных системах вооружения и массовом наблюдении — «красных линиях», которые она не была готова переступить. В ответ Министерство обороны обозначило Anthropic как «риск для цепочки поставок» (supply chain risk) — ярлык, который компания намерена оспорить в суде.
Напротив, OpenAI официально вступила в партнерство с Министерством обороны. Хотя OpenAI решительно защищала соглашение, заявляя, что ее меры безопасности являются достаточными и что ее модели не будут использоваться для летального автономного оружия, этот шаг, тем не менее, вызвал значительную негативную реакцию.
Эффект «последствий»:
Статистическое влияние этого этического противостояния неоспоримо. Данные аналитических фирм по приложениям и собственные внутренние отчеты Anthropic рисуют картину быстрой перестановки в иерархии ИИ.
В следующей таблице приведены ключевые показатели, определяющие текущий рыночный сдвиг:
Сравнительные показатели роста: Конец 1 квартала 2026 г.
---|---|----
Метрика|Anthropic (Claude)|OpenAI (ChatGPT)
Ежедневные новые регистрации|> 1 000 000
Стремительное ускорение в начале марта|Стабильно / Плато
Сохранение высокой базы при снижении скорости роста
Рейтинг в App Store (США)|№1 (Бесплатные приложения)
Обошел всех конкурентов в марте|№2 (Бесплатные приложения)
Смещен с первого места
Рост загрузок (нед/нед)|+55%
Вызван новостным циклом и виральной поддержкой|Стабильно
Высокое удержание, более низкий всплеск новых приобретений
Активная база пользователей|Стремительно расширяется
Всплеск ежедневных активных пользователей (DAU)|~900 миллионов еженедельно
Остается действующим гигантом
Тренд общественного восприятия|«Этическая альтернатива»
Высокие оценки лояльности по вопросам приватности|«Истеблишмент / Оборона»
Смешанные настроения из-за связей с Минобороны
Хотя OpenAI остается гигантом с примерно 900 миллионами активных пользователей в неделю по состоянию на конец февраля 2026 года, скорость роста Claude свидетельствует о значительном захвате рынка «новых пользователей» и заметной доле трафика «перебежчиков». Рост загрузок Claude на 55% по сравнению с предыдущей неделей — это цифра, редко встречающаяся в устоявшихся категориях приложений, что указывает на виральное событие, а не на органический рост.
Решение Министерства обороны пометить Anthropic как «риск для цепочки поставок» было призвано предостеречь государственных подрядчиков и, возможно, изолировать фирму. Однако в потребительском секторе этот ярлык возымел противоположный эффект. Он фактически заклеймил Claude как выбор «бунтарей» — ИИ, который оказался слишком этичным для военной стандартизации.
Это явление не является беспрецедентным в мире технологий, где трения с государственным аппаратом слежки часто трансформируются в авторитет среди защитников конфиденциальности. Однако масштаб, в котором это происходит в секторе ИИ, является новым. Пользователи не просто скачивают приложение для обмена зашифрованными сообщениями; они выбирают своего основного интеллектуального партнера — ИИ, который они будут использовать для написания электронных писем, кодирования программного обеспечения и мозгового штурма идей.
Важно отметить, что одно лишь этическое соответствие редко удерживает продукт, если его полезность недостаточна. Способность Claude извлечь выгоду из этого момента подкрепляется высокой производительностью его последних моделей, вероятно, серий Claude 3.5 или Claude 4 (что контекстуально подразумевается временной шкалой 2026 года).
Пользователи, переходящие с ChatGPT, находят платформу, которая не только «чище» в плане корпоративных связей, но и высококонкурентна в задачах рассуждения, кодирования и творческого письма. «Теплота» и «управляемость» Claude часто назывались ключевыми отличиями, и теперь эти функции открываются массовой аудиторией, которая в противном случае могла бы остаться в экосистеме OpenAI в силу инерции.
События марта 2026 года служат критическим примером для всей индустрии искусственного интеллекта. Они демонстрируют, что:
Пока Anthropic готовится оспорить решение Министерства обороны в суде, суд общественного мнения, похоже, уже вынес предварительный вердикт. На данный момент «риск для цепочки поставок» является любимцем потребительского рынка, а счетчик ежедневных регистраций продолжает тикать вверх, перестраивая ландшафт искусственного интеллекта с каждым новым пользователем.