
Хрупкий баланс между коммерческим развитием ИИ и этическим управлением подвергся серьезному испытанию в эти выходные, когда Кейтлин Калиновски (Caitlin Kalinowski), руководитель отдела робототехники и потребительского оборудования OpenAI, ушла в отставку. Ее уход, явно названный реакцией на углубляющиеся связи OpenAI с Министерством обороны США (DoD), подчеркивает растущий раскол в сообществе специалистов по искусственному интеллекту в отношении милитаризации передовых моделей.
Калиновски, ветеран в области аппаратного обеспечения, присоединившаяся к OpenAI в конце 2024 года после руководства подразделением AR-очков в Meta, охарактеризовала недавнее соглашение компании с Пентагоном как «провал управления». Ее отставка произошла всего через несколько дней после появления сообщений о том, что OpenAI получила секретный контракт во многом потому, что конкурирующая фирма Anthropic отказалась идти на компромисс в вопросах безопасности в отношении автономного оружия и внутренней слежки.
В заявлении, которое с тех пор широко разошлось в социальных сетях и на отраслевых форумах, Калиновски не стеснялась в выражениях. Она утверждала, что защитные барьеры, установленные в новом оборонном соглашении OpenAI, были приняты «поспешно» и не имели обязательной юридической силы, необходимой для предотвращения злоупотреблений.
«Мы считаем, что наше соглашение с Пентагоном создает рабочий путь... но без защитных барьеров, определенных таким образом, чтобы противостоять меняющимся политическим ветрам, это провал управления», — отметила Калиновски. Ее основная обеспокоенность, по-видимому, сосредоточена на различии между контрактной политикой — которая может быть изменена или отменена руководством — и жесткими техническими/юридическими запретами.
Этот уход представляет собой значительный удар по амбициям OpenAI в области робототехники. Калиновски была нанята, чтобы возглавить возвращение компании к физическому ИИ, ей была поручена интеграция мультимодальных моделей в аппаратные устройства. Ее пребывание в должности, хотя и было недолгим, рассматривалось как важный мост между доминированием OpenAI в программном обеспечении и физическим миром. Ее уход сигнализирует о том, что для многих инженеров высшего звена этические последствия их работы остаются неоспоримым приоритетом.
Контекст этой отставки неразрывно связан с более широким геополитическим маневрированием с участием Министерства обороны. В конце февраля 2026 года переговоры между Пентагоном и Anthropic — стартапом по безопасности ИИ, основанным бывшими руководителями OpenAI — провалились.
Сообщается, что Anthropic отказалась разрешить использование своих моделей Claude для создания систем смертоносного автономного оружия или массовой слежки, потребовав включения строгих, неизменяемых пунктов в любой государственный контракт. Шагом, который шокировал отрасль, стало последующее признание Министерством обороны компании Anthropic «риском для цепочки поставок», что фактически внесло их в черный список для определенных оборонных контрактов.
OpenAI быстро заполнила образовавшуюся пустоту. Генеральный директор Сэм Альтман (Sam Altman) объявил о соглашении по развертыванию моделей OpenAI в секретных сетях Министерства обороны. Хотя Альтман подчеркнул, что сделка соответствует миссии OpenAI, ссылаясь на запреты на «самостоятельное управление автономным оружием», такие критики, как Калиновски, утверждают, что формулировки допускают слишком много двусмысленности, особенно в отношении определения «человек в контуре управления» (human in the loop), которое исторически растягивалось в военном контексте.
Расхождение в стратегии двух ведущих лабораторий ИИ никогда еще не было столь резким. В следующей таблице изложены основные различия, которые привели к переключению Министерства обороны с Anthropic на OpenAI.
Таблица 1: Позиция Anthropic и OpenAI в отношении оборонных контрактов
| Особенность | Позиция Anthropic | Соглашение OpenAI |
|---|---|---|
| Автономное оружие | Строгий, не подлежащий обсуждению запрет на все виды летального применения | Разрешено при наличии «ответственности человека» и мер предосторожности в рамках политики |
| Слежка | Отказ от внедрения инструментов массовой внутренней слежки | Ограничено «действующим законодательством» (зависит от законодательных изменений) |
| Контрактный характер | Требование обязательных технических ограничений | Опора на «многоуровневую» политику и мягкое управление |
| Последствия со стороны МО | Признана «риском для цепочки поставок» / Контракт аннулирован | Обеспечено секретное развертывание / Статус «Стратегического партнера» |
Калиновски не одинока в своем несогласии. Ее отставка гальванизировала часть сотрудников OpenAI и более широкую базу пользователей, вызвав возрождение движения «QuitGPT».
Сообщается, что внутренние каналы OpenAI были переполнены опасениями, что компания слишком далеко отошла от своих некоммерческих корней. Когда в январе 2024 года OpenAI удалила явный запрет на «военные действия и ведение войны» из своих политик использования, руководство назвало это необходимым обновлением для обеспечения возможности применения в целях «национальной безопасности», таких как кибербезопасность. Однако текущая сделка, которая включает секретные операции и заменяет ориентированного на безопасность конкурента, рассматривается сотрудниками как фундаментальное предательство первоначального устава компании.
Для команды робототехники последствия особенно глубоки. Робототехника — это интерфейс, через который ИИ применяет физическую силу. Инженеры опасаются, что те же модели, которые обучаются помогать домашним роботам складывать белье, могут в рамках этого нового соглашения быть перепрофилированы для управления автономными дронами или двуногими часовыми, при условии, что оператор-человек номинально «отвечает» за конечное действие.
События этой недели знаменуют собой поворотный момент в индустрии ИИ. Мы являемся свидетелями формирования «Военно-промышленного комплекса ИИ» (Military-Industrial-AI Complex), где доступ к самым мощным передовым моделям становится вопросом национальной безопасности, перевешивающим коммерческие или этические колебания.
Отставка Кейтлин Калиновски — это больше, чем просто кадровая перестановка; это протест против нормализации ИИ в ведении войны. По мере того как OpenAI все глубже интегрируется в инфраструктуру Пентагона, выявленный ею «провал управления», вероятно, останется центральной точкой раздора. Отрасль теперь должна столкнуться с неутешительной реальностью: в гонке за достижением сильного искусственного интеллекта (Artificial General Intelligence, AGI) грань между полезным инструментом и оружием войны становится все более размытой.