
В рамках шага, который может изменить отношения между американским оборонным ведомством и частным сектором искусственного интеллекта (Artificial Intelligence, AI), сенатор Elissa Slotkin (D-MI) представила знаковую законодательную инициативу, направленную на установление строгих, не подлежащих обсуждению юридических ограничений на использование AI в Pentagon. Эта инициатива появилась вслед за резонансным противостоянием между Department of Defense (DoD) и разработчиком AI Anthropic, обнажив углубляющийся конфликт по поводу того, как мощные модели генеративного ИИ (Generative AI) должны развертываться в военных и разведывательных операциях.
Предложение сенатора Elissa Slotkin, которое позиционируется для возможной интеграции в предстоящий Закон о полномочиях в области национальной обороны (National Defense Authorization Act, NDAA), направлено на закрепление в федеральном праве конкретных «красных линий» в отношении возможностей и развертывания AI. По мере того как вооруженные силы США ускоряют внедрение новейших технологий, отсутствие четких законодательных границ вызвало бурные дебаты среди законодателей, защитников конфиденциальности и лидеров отрасли.
В основе законопроекта лежат три четких фундаментальных запрета. Закрепляя эти ограничения, сенатор Elissa Slotkin стремится не допустить, чтобы Department of Defense использовало передовой AI способами, которые могут создать значительные этические, правовые или экзистенциальные риски для демократических норм и глобальной стабильности.
Предлагаемые «красные линии» заключаются в следующем:
Спешность подготовки законопроекта сенатора Elissa Slotkin напрямую связана с недавней напряженностью в отношениях между Department of Defense и Anthropic, одним из ведущих разработчиков AI в Соединенных Штатах. В отчетах указывалось, что Pentagon под руководством министра Pete Hegseth стремился закупить возможности AI у Anthropic. Однако компания, по сообщениям, отказалась предоставить неограниченный доступ к своим моделям, особенно возражая против требований, которые позволили бы военным использовать технологию для автономного летального таргетинга или внутренней слежки.
Эта точка трения высветила критический разрыв: DoD рассматривает AI как стратегическую необходимость, часто настаивая на максимальной оперативной гибкости, в то время как многие ведущие AI-компании все больше привержены принципам «конституционного ИИ» (Constitutional AI) и философии разработки, ориентированной на безопасность. Противостояние предполагает, что без законодательной ясности правительство США рискует стратегически оттолкнуть тех самых партнеров из частного сектора, на которых оно полагается для достижения технологического превосходства.
Законопроект сенатора Elissa Slotkin направлен на устранение этой неопределенности путем установления стандартных правил взаимодействия для всех подрядчиков. Закрепив эти ограничения, правительство фактически создаст «безопасную гавань» для технологических компаний, позволяя им поддерживать оборонные цели, не опасаясь, что их моделями будут манипулировать для нарушения этических ограничений, встроенных в их системы.
Чтобы понять значение законопроекта, полезно классифицировать ограничения вместе с обосновывающими их причинами. В следующей таблице представлен анализ предлагаемых законодательных защитных барьеров:
| Ограничение | Основное обоснование | Потенциальное воздействие |
|---|---|---|
| Летальная автономность | Предотвращение несанкционированных человеческих жертв | Обязательное «Human-in-the-Loop» для применения смертоносной силы |
| Массовая слежка | Защита гражданских свобод | Ограничения на использование внутренних данных/таргетинг |
| Ядерное командование | Предотвращение катастрофических системных рисков | Явный запрет на AI в цепочках принятия решений по WMD |
Хотя предложение получило развитие в качестве темы для обсуждения в Комитете Сената по вооруженным силам, путь к его принятию остается сопряженным с политическими трудностями. Оборонное ведомство, включая нынешнее руководство DoD, исторически с осторожностью относилось к «всеобъемлющим» ограничениям, часто аргументируя это тем, что такие лимиты могут дать конкурентное преимущество противникам, таким как Китай, которые также вкладывают значительные средства в военный AI.
Сенатор Elissa Slotkin выступает за включение этих положений в NDAA — ежегодный законопроект, обязательный к принятию, который финансирует вооруженные силы США. Привязав защитные барьеры AI к NDAA, сторонники верят, что смогут вынести этот вопрос в основной поток дебатов по оборонной политике, что затруднит исполнительной власти возможность обойти это обсуждение.
Тем не менее, оппозиция остается значительной. Критики внутри аппарата безопасности утверждают, что технологии должны регулироваться административной политикой, а не жестким законом, которому может быть трудно успевать за быстрой эволюцией AI. Напротив, группы гражданского общества и некоторые умеренные законодатели утверждают, что одной политики недостаточно, отмечая, что указы президента могут быть отменены последующими администрациями, в то время как федеральный закон обеспечивает долговечную основу для подотчетности.
Дебаты, вызванные законопроектом Elissa Slotkin, выходят за рамки непосредственных опасений Pentagon и Anthropic. Они затрагивают фундаментальное противоречие XXI века: баланс между быстрым внедрением технологий и сохранением демократических барьеров.
Для обозревателей Creati.ai это событие служит своего рода лакмусовой бумажкой для отрасли. Оно сигнализирует об отходе от эпохи разработки технологий под девизом «двигайся быстро и ломай стереотипы» в сторону более зрелой фазы, где этическое проектирование является обязательным условием для партнерства с государством. В случае принятия это законодательство, вероятно, создаст глобальный прецедент, влияя на то, как другие страны подходят к регулированию AI в военном контексте.
В конечном счете, стремление сенатора Elissa Slotkin к принятию закона представляет собой признание того, что AI — это не просто инструмент, а преобразующая сила. Устанавливая границы сейчас, США получают возможность стать лидером в разработке ответственного AI, гарантируя, что оборонные технологии следующего поколения останутся слугами человеческих намерений, а не автономными драйверами геополитической нестабильности. Получит ли законопроект необходимую двухпартийную поддержку, чтобы пережить законодательный процесс, еще предстоит увидеть, но дискуссия, которую он инициировал, несомненно, является необходимой.