
В решающий момент для будущего политики в области искусственного интеллекта в Соединенных Штатах президент Дональд Трамп издал масштабный указ, предписывающий всем федеральным ведомствам немедленно разорвать связи с Anthropic. Директива, подписанная поздно вечером в пятницу, прямо называет базирующуюся в Сан-Франциско исследовательскую лабораторию ИИ «угрозой национальной безопасности». Этот шаг фактически запрещает использование флагманской модели Anthropic, Claude, во всем федеральном правительстве, от Министерства энергетики до Министерства обороны.
На брифинге в Белом доме, последовавшем за указом, это решение было охарактеризовано как необходимый шаг для обеспечения американского военного и стратегического превосходства. Представители администрации назвали «жесткий отказ» Anthropic привести свои технологии в соответствие с приоритетами национальной обороны основным катализатором запрета. Это событие знаменует собой самое значительное на сегодняшний день вмешательство исполнительной власти в коммерческий сектор ИИ, сигнализируя о переходе от совместного регулирования к строгому обеспечению лояльности федеральным директивам.
Для читателей Creati.ai это событие подчеркивает углубляющийся раскол в экосистеме ИИ: увеличивающийся разрыв между лабораториями, ориентированными на безопасность, и требованиями к возможностям, установленными государством. По мере освобождения федеральных контрактов отрасль готовится к перераспределению сил, при этом конкуренты, скорее всего, поспешат заполнить пустоту, оставленную одним из ведущих поставщиков больших языковых моделей (LLM) на рынке.
Конфликт между администрацией Трампа и Anthropic, по-видимому, возник из-за срыва переговоров относительно конкретных вариантов использования генеративного ИИ (Generative AI) Пентагоном. Источники, знакомые с вопросом, указывают, что Министерство обороны (DoD) во главе с министром Питом Хегсетом запросило специализированную версию Claude с измененными протоколами безопасности.
Сообщается, что Пентагон добивался удаления определенных «барьеров отказа» — этических ограничений, встроенных в модель, которые не позволяют ей помогать в кинетических операциях, наступательных киберстратегиях и симуляции биологического оружия. Эти ограничения занимают центральное место в структуре «Конституционного ИИ» (Constitutional AI) компании Anthropic, которая отдает приоритет полезности, честности и безвредности перед мощностью в сценариях высокого риска.
Согласно отчетам, генеральный директор Anthropic Дарио Амодеи отклонил запрос, утверждая, что ослабление этих мер безопасности нарушит основную миссию компании и потенциально приведет к возникновению неконтролируемых рисков. Этот отказ был истолкован Белым домом не просто как корпоративное несогласие, а как акт несоблюдения интересов национальной безопасности.
Администрация Трампа утверждает, что в эпоху обострения геополитической конкуренции, особенно с Китаем, правительство США не может полагаться на программное обеспечение, которое «ставит под сомнение» решения военных командиров. Нарратив, продвигаемый Белым домом, заключается в том, что «прогрессивный ИИ» (woke AI) или чрезмерно ограниченные модели сдерживают стратегические преимущества Америки. Называя Anthropic угрозой национальной безопасности, администрация фактически утверждает, что пацифизм ИИ в программной форме является обузой.
Чтобы понять масштабы этого сдвига, важно сравнить стандарты, которых придерживается Anthropic, с новыми требованиями, выдвигаемыми Пентагоном. В следующей таблице показаны расхождения, которые привели к изданию указа.
| Функция | Стандарт «Конституционного ИИ» Anthropic | Требование Пентагона «Готовность к обороне» |
|---|---|---|
| Этический приоритет | Модель отклоняет команды, нарушающие конституцию безопасности | Власть командира важнее этики модели |
| Кинетические операции | Строго запрещены (нулевая терпимость к летальной помощи) | Необходимая возможность для тактического анализа |
| Суверенитет данных | Жесткая конфиденциальность с акцентом на снижение вреда для пользователя | Полная прозрачность для правительственного аудита |
| Изменяемость барьеров | Устанавливается разработчиком (Anthropic) | Изменяется конечным пользователем (DoD/Федеральное агентство) |
| Сфера развертывания | Общего назначения, ограниченная безопасностью | Специально для миссий, неограниченные рамки |
Немедленные последствия указа оказались турбулентными. Anthropic, которая заключала все большее число государственных контрактов на анализ данных и автоматизацию административных процессов, теперь сталкивается с полной блокировкой на рынке государственного сектора. Хотя выручка компании в основном обеспечивается корпоративным и потребительским секторами, репутационное клеймо «угрозы национальной безопасности» может напугать клиентов из списка Fortune 500, которые полагаются на благосклонность правительства.
Напротив, это открывает огромные возможности для конкурентов. Технологические аналитики предполагают, что компании, готовые предложить «раскрепощенные» или «суверенные» модели — системы ИИ, которые позволяют заказчику полностью контролировать параметры безопасности, — могут получить миллиарды перенаправленного федерального финансирования. Это согласуется с более широкой инициативой администрации «ИИ прежде всего для Америки» (America First AI), которая ставит во главу угла чистую мощность и национальную лояльность, а не абстрактные философии безопасности.
Мы, вероятно, увидим ребрендинг во всем секторе. Компании, занимающиеся ИИ, могут начать маркетинг решений «Патриотического ИИ» (Patriotic AI), специально разработанных для соблюдения субординации, а не универсальных этических принципов. Такое разделение рынка может привести к появлению двух различных классов ИИ:
В заявлении, опубликованном вскоре после выхода указа, Anthropic подтвердила свою приверженность безопасности. «Мы создали Claude, чтобы он был полезным и безвредным», — говорится в заявлении. «Мы считаем, что удаление защитных барьеров из мощных систем ИИ, независимо от пользователя, представляет неприемлемый риск для человечества. Мы не пойдем на компромисс в вопросах безопасности наших систем».
Эта принципиальная позиция проводит четкую черту. Выбирая потерю федеральных контрактов вместо компромисса со своей архитектурой безопасности, Anthropic проверяет экономическую жизнеспособность этичного ИИ в агрессивной регуляторной среде. Это ставит под сомнение предположение о том, что технологические компании всегда будут подчиняться воле государства ради получения прибыльных оборонных долларов.
Однако ярлык «Угроза национальной безопасности» имеет юридический вес, выходящий за рамки просто потерянных контрактов. Теоретически это может привести к ограничениям на инвестиции, экспортному контролю над их технологиями или даже к проверке их сотрудников. Юридическая битва за то, можно ли заставить софтверную компанию изменить свой продукт для военных, скорее всего, закончится в федеральных судах.
Этот указ создает прецедент, который найдет отклик в Кремниевой долине. Он посылает сигнал о том, что федеральное покровительство обусловлено полным соответствием целям администрации, даже когда эти цели вступают в конфликт с исследованиями компании в области безопасности.
Для исследователей и разработчиков ИИ сдерживающий эффект вполне реален. Вопрос теперь не только в том, «можем ли мы это построить?», но и в том, «если мы построим это безопасно, не попадем ли мы в черный список?». Поскольку администрация Трампа настаивает на агрессивном ускорении возможностей ИИ для противодействия глобальным противникам, пространство для нюансов — и для «механизмов отказа» — стремительно сокращается.
Creati.ai продолжит следить за развитием этой истории, особенно за тем, как другие крупные игроки, такие как OpenAI и Google, отреагируют на аналогичное давление со стороны Пентагона. Эра «нейтрального» поставщика технологий, возможно, подходит к концу.