
Министерство обороны США (Department of Defense, DoD) инициировало окончательный план по отказу от модели ИИ Claude от Anthropic в течение шестимесячного периода. Этот стратегический поворот последовал за официальным признанием Пентагоном компании Anthropic «угрозой безопасности» — шаг, который вызвал резонанс в оборонном и технологическом секторах. Поскольку военное ведомство ставит в приоритет эксплуатационную надежность и гарантию выполнения задач, администрация ускоряет развертывание альтернативных больших языковых моделей (Large Language Models, LLM), в первую очередь предоставляемых OpenAI и Google Gemini.
Хотя технический директор Пентагона по-прежнему уверен в осуществимости этого перехода, директива встретила значительное внутреннее сопротивление. Военнослужащие, привыкшие к интуитивно понятному интерфейсу Claude, выразили обеспокоенность по поводу возможных проблем с интеграцией, сбоев в рабочих процессах и крутой кривой обучения, связанной с освоением новых платформ в условиях высоких ставок и дефицита времени.
В основе трений между DoD и Anthropic лежат строгие этические барьеры компании-разработчика ИИ. Юридические и технические группы Пентагона утверждают, что эти внутренние ограничения, которые Anthropic называет «красными линиями», представляют собой неприемлемый риск для национальной безопасности (national security). В частности, DoD опасается, что в условиях боевых действий программирование Anthropic может активировать «аварийный выключатель» (kill switch) или превентивно изменить поведение ИИ, если он сочтет, что военные операции пересекли его этические границы в отношении наблюдения или поражения целей.
Правительство настаивает на том, что частной корпорации нельзя позволять сохранять возможность отменять или изменять поведение программного обеспечения во время активных военных операций. Эта динамика «двойного контроля», по словам представителей оборонного ведомства, несовместима с абсолютной надежностью, необходимой для национальной обороны, что привело к признанию компании обузой для безопасности, а не стратегическим партнером.
| Область характеристик | Подход Anthropic «Красные линии» | Стратегические требования Пентагона/DoD |
|---|---|---|
| Операционная автономия | Предотвращает использование ИИ для массового наблюдения или поражения целей с помощью жестко закодированных ограничений. | Требует полного контроля и надежности; запрещает «аварийные выключатели» или несанкционированное изменение модели в полевых условиях. |
| Поведение модели | Приоритет этического соответствия и безопасности, ограничение вариантов использования, нарушающих внутренние моральные принципы. | Приоритет гарантии выполнения миссии и последовательной, предсказуемой производительности без внешнего корпоративного вмешательства. |
| Контрактные ожидания | Утверждает, что корпоративная ответственность важнее военных контрактов в случае нарушения этических порогов. | Рассматривает политику ограничений как стратегическую уязвимость и неприемлемое нарушение операционного протокола. |
| Надежность системы | Использует защитные барьеры для снижения рисков нецелевого использования, что DoD рассматривает как потенциальную уязвимость. | Рассматривает эти барьеры как риск «превентивного изменения», который может поставить под угрозу активные боевые действия. |
Чтобы восполнить пустоту, оставшуюся после предстоящего отказа от Claude, DoD ускорил подписание контрактов с другими крупными разработчиками ИИ. И OpenAI, и Google предприняли шаги по приведению своих предложений в соответствие с требованиями Пентагона. Google, в частности, сделала ставку на свои отношения с Министерством обороны, при этом руководители подчеркивают, что потенциальные выгоды от ИИ в военном контексте значительно перевешивают риски.
Подход Google заключался в том, чтобы отделить свои агенты ИИ от инструментов, ориентированных на боевые действия. Руководство Google DeepMind уточнило, что их текущие развертывания в основном сосредоточены на административной, разведывательной и аналитической поддержке, а не на прямом участии в кинетических военных операциях или захвате целей. Такое позиционирование позволяет компании удовлетворять потребности Пентагона в мощном и надежном ИИ, одновременно пытаясь сохранить дистанцию от наиболее спорных аспектов оборонных технологий.
Однако отраслевые эксперты расходятся во мнениях относительно того, будет ли этот переход беспрепятственным. Переход на новую архитектуру модели — это не просто обновление программного обеспечения; он включает миграцию сложных наборов данных, переобучение персонала и обеспечение повторной проверки протоколов безопасности.
Шестимесячное окно, установленное Пентагоном, многими рассматривается как крайне амбициозное. Военные пользователи особенно обеспокоены возможной потерей целостности данных и снижением производительности в процессе миграции.
Ключевые проблемы, выявленные аналитиками, включают:
Иск, поданный Anthropic против DoD, остается значительным препятствием. Хотя правительство отвергло претензии в превышении конституционных полномочий и нарушении свободы слова, это дело, вероятно, создаст долгосрочный прецедент того, как компании ИИ взаимодействуют с государством. Если Пентагон одержит победу, это прочно утвердит принцип, согласно которому поставщики ИИ, вступающие в государственные контракты, должны быть готовы отказаться от контроля над этическими параметрами своих моделей в пользу императивов национальной безопасности.
Напротив, если судебный иск Anthropic получит поддержку, это может защитить способность технологических фирм сохранять моральные границы даже при работе по дорогостоящим государственным контрактам. В нынешнем виде действия Пентагона служат ярким напоминанием о растущей напряженности между открытым, глобальным характером разработки ИИ и закрытыми, защищенными требованиями оборонного сектора.
По мере того как шестимесячный срок подходит к концу, Министерство обороны делает ставку на то, что его зависимость от более «лояльных» партнеров приведет к созданию более стабильной и эффективной экосистемы ИИ. Оправдает ли себя этот риск — или он привнесет новые, непредвиденные уязвимости — остается критическим вопросом для будущего американской оборонной стратегии в эпоху искусственного интеллекта.