
OpenAI официально внесла поправки в свой контрактный договор с Министерством обороны США (Department of Defense, DoD), введя явные запреты на использование своих моделей генеративного ИИ (Generative AI) для массовой внутренней слежки и разработки полностью автономного летального оружия. Этот шаг, подтвержденный генеральным директором Сэмом Альтманом (Sam Altman) во вторник, последовал за усилением общественного контроля и внутренними дебатами относительно этичного развертывания генеративного ИИ в контексте национальной безопасности.
Этот стратегический поворот знаменует собой важный момент для лидера в области ИИ из Сан-Франциско, который стремится найти хрупкий баланс между поддержкой оборонных инициатив демократических стран и соблюдением принципов «безопасность прежде всего», на которых он был основан. Закрепляя эти ограничения непосредственно в контракте с Пентагоном, OpenAI стремится подавить негативную реакцию со стороны защитников конфиденциальности, групп по защите гражданских свобод и собственных сотрудников, сохраняя при этом партнерские отношения с правительством США.
Пересмотр контракта последовал за периодом повышенной напряженности между технологическими фирмами Кремниевой долины (Silicon Valley) и государственными структурами. Когда в начале этого года впервые появились новости об углублении сотрудничества OpenAI с Пентагоном, это вызвало опасения, что мощные большие языковые модели (Large Language Models, LLMs) и механизмы логического вывода компании могут быть перепрофилированы для навязчивого мониторинга граждан США или автоматизации цепочек уничтожения в ходе боевых действий.
Критики указывали на потенциал «расширения миссии» (mission creep), когда инструменты, предназначенные для логистики, генерации кода или синтеза данных, могут непреднамеренно стать основой аппаратов слежки, способных обрабатывать огромные объемы персональных данных без ордера или надзора. В ответ на эти опасения измененное соглашение теперь включает обязательные пункты, которые специально исключают подобные приложения с высоким уровнем риска.
Сэм Альтман, выступая на форуме по технологической политике в Вашингтоне (Washington D.C.), подчеркнул, что поправки были превентивными мерами. «Мы верим в необходимость американского лидерства в области ИИ, в том числе в сфере обороны», — заявил Альтман. «Однако это лидерство должно быть морально обоснованным. Мы вносим изменения в наше соглашение, чтобы гарантировать, что наши инструменты расширяют возможности людей, принимающих решения, а не заменяют их в критических сценариях жизни и смерти или нарушают права граждан на неприкосновенность частной жизни».
Изменения в соглашении не являются чисто семантическими; они вводят операционные барьеры, ограничивающие способы развертывания API и корпоративных решений OpenAI в инфраструктуре DoD. Поправки сосредоточены на двух основных столпах: защите внутренней конфиденциальности и запрете автономных летальных действий.
В следующей таблице подробно описаны конкретные изменения в формулировках контракта и сфере деятельности:
Таблица: Обзор поправок к контракту OpenAI и Пентагона
| Категория | Прежняя сфера действия контракта | Новые явные ограничения |
|---|---|---|
| Внутренняя слежка | Разрешен общий анализ и синтез данных | Строгий запрет на анализ массовых внутренних наборов данных в целях слежки |
| Летальная автономность | Двусмысленность в отношении «военного и боевого» использования | Запрет на использование для управления полностью автономными системами летального оружия |
| Человеческий надзор | Предполагалось участие человека в критических задачах | Обязательная авторизация человеком для всех кинетических или ответственных решений |
| Хранение данных | Стандартные политики хранения данных предприятия | Улучшенные протоколы удаления конфиденциальных гражданских данных |
| Доступ третьих лиц | Открыто для утвержденных оборонных подрядчиков | Ограниченный доступ, предотвращающий обход этических норм субподрядчиками |
Обозначая эти границы, OpenAI пытается установить новый отраслевой стандарт для оборонных контрактов, предполагая, что ИИ-компании могут поддерживать национальные интересы, не становясь каналами для бесконтрольной государственной власти.
Поправка касается одного из самых спорных вопросов в области этики ИИ: разработки систем летального автономного оружия (Lethal Autonomous Weapons Systems, LAWS). В то время как военные США придерживаются политики, требующей участия человека в принятии решений о применении силы, интеграция передовых возможностей планирования и логического вывода ИИ вызвала опасения, что программное обеспечение может в конечном итоге опередить человеческий надзор.
Решение OpenAI прямо запретить использование своей технологии для автономного вооружения соответствует доктрине «человек в контуре» (human-in-the-loop). Эта доктрина утверждает, что человек всегда должен нести ответственность за применение летальной силы. Обеспечивая это на контрактной основе, OpenAI гарантирует, что её модели — такие как последняя итерация GPT-5 или её преемники в области логического вывода — используются строго для вспомогательных функций. Эти функции включают логистическое планирование, киберзащиту, анализ кода и синтез разведывательных отчетов, а не прямое участие в боевых действиях.
Это различие крайне важно для понимания читателями Creati.ai. Полезность генеративного ИИ в обороне огромна и выходит далеко за рамки вооружения. Пентагон использует эти инструменты для модернизации устаревших программных систем, оптимизации бюрократических процессов и анализа разведданных из открытых источников. Поправки OpenAI сохраняют эти ценные нелетальные варианты использования, отгораживаясь от приложений «красной линии», вызывающих общественный страх.
Шаг OpenAI, вероятно, окажет давление на других крупных оборонных подрядчиков и поставщиков ИИ, заставив их принять аналогичные меры прозрачности. Конкуренты, такие как Palantir, Google DeepMind и новые стартапы в области оборонных технологий, различаются в своих подходах к военному взаимодействию.
В течение многих лет Google боролась с внутренним активизмом сотрудников, в первую очередь во время скандала с «Проектом Мейвен» (Project Maven), который привел к отказу компании от определенных контрактов на анализ видео с дронов. Напротив, Palantir открыто приняла свою роль западного партнера по обороне. OpenAI пытается проложить «средний путь» — тот, который поддерживает Министерство обороны США, но сохраняет отчетливый этический суверенитет.
Отраслевые аналитики предполагают, что эта поправка может фактически укрепить долгосрочные позиции OpenAI. Решая проблемы массовой слежки напрямую, компания снижает регуляторные риски и укрепляет доверие широкой общественности. Этот «капитал доверия» необходим, поскольку компания продолжает внедрять все более функциональные модели, проникающие во все секторы экономики.
Успешная реализация этих новых условий контракта в значительной степени зависит от проверки и надзора. Остаются вопросы относительно того, как OpenAI будет проводить аудит использования своих моделей Пентагоном. В отличие от типичных корпоративных клиентов, Министерство обороны работает с высоким уровнем секретности, что затрудняет внешний аудит.
Сэм Альтман указал, что для проверки журналов использования и обеспечения соблюдения новых запретов будет создан совместный комитет по надзору, состоящий из проверенных технических экспертов из OpenAI и специалистов по этике из DoD. Этот механизм призван предотвратить проблему «черного ящика» (black box), когда конкретное применение моделей ИИ скрывается за уровнями допуска к безопасности.
Кроме того, это событие подчеркивает эволюционирующую роль частных технологических компаний в формировании геополитических норм. В отсутствие всеобъемлющих международных договоров, регулирующих использование ИИ в войне, условия обслуживания и коммерческие контракты становятся законами де-факто, регулирующими распространение военного ИИ.
Решение OpenAI внести поправки в контракт с Пентагоном представляет собой этап взросления индустрии ИИ. Оно признает, что природа искусственного интеллекта как технологии двойного назначения — способной приносить как огромную пользу, так и глубокий вред — требует большего, чем просто расплывчатые этические принципы; она требует юридически обязывающего текста.
Для сообщества ИИ это служит примером того, как ориентироваться в неизбежном пересечении технологий и государственной власти. Устанавливая жесткие границы против массовой слежки и автономных убийств, OpenAI пытается доказать, что сотрудничество с оборонным сектором не требует отказа от принципов гражданской свободы. По мере того как технологии продолжают ускоряться, прочность этих «бумажных барьеров» будет подвергаться испытаниям, но на данный момент они являются важным обязательством по ответственному внедрению инноваций.