
Anthropic, которую многие считают совестью гонки генеративного ИИ (Generative AI) в вопросах безопасности, опубликовала третью итерацию своей Политики ответственного масштабирования (Responsible Scaling Policy, RSP v3). Обновление, которое фундаментально реструктурирует подход компании к управлению катастрофическими рисками ИИ, появилось в момент острого геополитического и коммерческого трения. Поскольку компания столкнулась, по сообщениям, с ультиматумом со стороны Министерства обороны США относительно военного использования её технологий, отказ от её «флагманского» обещания безопасности — приостановить разработку, если безопасность не может быть гарантирована — вызвал пристальное внимание со стороны отраслевых наблюдателей.
С момента основания RSP Anthropic определялась механизмом «условных обязательств». В рамках предыдущей версии RSP v2 компания обязалась прекратить обучение или развертывание новых моделей, если они пересекут определенные пороги «Уровня безопасности ИИ (AI Safety Level, ASL)» без внедрения соответствующих мер защиты. Этот подход «растяжки» был разработан для того, чтобы приоритет отдавался безопасности, а не скорости конкуренции.
С выпуском RSP v3 Anthropic отошла от этих жестких остановок. Компания утверждает, что односторонние паузы неэффективны на рынке, где конкуренты продолжают мчаться вперед. Вместо этого новая политика делает упор на прозрачность и публичную постановку целей.
Ключевые компоненты RSP v3:
Руководители Anthropic охарактеризовали этот сдвиг как «прагматичный» ответ на реальность. В блоге, сопровождающем релиз, компания отметила, что «прекращение обучения моделей ИИ на самом деле никому не поможет», если другие разработчики с меньшим количеством моральных принципов продолжат двигаться вперед. В качестве основного драйвера перемен они назвали провал стратегии «гонки за качеством» (race to the top), при которой конкуренты должны были подражать ограничениям безопасности Anthropic.
В следующей таблице представлены структурные изменения между предыдущей политикой и недавно выпущенной версией.
| Функция/Обязательство | RSP v2 (Предыдущая) | RSP v3 (Текущая) |
|---|---|---|
| Основной механизм | Условная приостановка (растяжки ASL) | Прозрачность и дорожные карты |
| Обещание безопасности | Прекращение обучения, если безопасность не гарантирована | Прагматичные односторонние цели |
| Документация | Внутренние оценки и определенные пороги | Публичные дорожные карты безопасности передовых систем |
| Отчетность о рисках | Ситуативная и с внутренним фокусом | Систематические публичные отчеты о рисках (3–6 мес.) |
| Отраслевая стратегия | Лидерство на личном примере (Гонка за качеством) | Переход к национальной конкурентоспособности |
Время выпуска RSP v3 невозможно отделить от обостряющегося противостояния между Anthropic и американскими военными. Отчеты подтверждают, что министр обороны Пит Хегсет (Pete Hegseth) недавно встретился с генеральным директором Anthropic Дарио Амодеи (Dario Amodei), предъявив жесткий ультиматум: снять ограничения на военное использование моделей Claude или столкнуться с серьезными последствиями.
Сообщается, что Пентагон требует от Anthropic разрешить использование своего ИИ для «любых законных целей», фактически лишая компанию права вето на конкретные военные применения. Исторически Anthropic придерживалась строгих «красных линий» против использования своей технологии для:
Министерство обороны пригрозило применить Закон о оборонном производстве (Defense Production Act, DPA) — закон времен Корейской войны, который позволяет президенту принуждать частные компании отдавать приоритет контрактам в сфере национальной обороны. Кроме того, официальные лица высказали возможность признания Anthropic «риском для цепочки поставок», что фактически внесет компанию в черный список для всех федеральных контрактов, что потенциально лишит их сотен миллионов доходов и закроет доступ к прибыльному государственному сектору.
Критики утверждают, что смягчение обязательств RSP по «приостановке» создает удобную лазейку в политике. Устраняя строгое требование прекращать развертывание на основе внутренних порогов безопасности, Anthropic может позиционировать себя так, чтобы удовлетворить требования Пентагона без формального нарушения своей собственной конституции безопасности.
Пересмотр RSP подчеркивает растущую напряженность в индустрии ИИ: «избыток возможностей» (capability overhang). Этот термин относится к разрыву между чистой мощью модели ИИ и доступными механизмами безопасности для ее контроля. Предыдущая политика Anthropic была разработана для предотвращения чрезмерного разрыва. Убирая «жесткий тормоз», компания неявно принимает более высокий уровень риска, чтобы оставаться конкурентоспособной по отношению к таким соперникам, как OpenAI и xAI, которые уже заключили обширные оборонные контракты.
Почему это важно для экосистемы ИИ:
RSP v3 от Anthropic представляет собой зрелое, хотя и циничное, осознание ландшафта ИИ в 2026 году. Идеализм 2023 года — когда одна компания могла направлять отрасль к безопасности через моральное лидерство — столкнулся с суровыми реалиями соперничества великих держав и военной необходимости. В то время как внедрение Отчетов о рисках и Дорожных карт безопасности передовых систем предлагает новый уровень прозрачности, удаление обязательного «обещания безопасности» знаменует собой конец эпохи. На фоне маячащего Пентагона Anthropic больше не пытается замедлить поезд; она лишь обещает громче свистеть в свисток по мере того, как он ускоряется.