
23 февраля 2026 года – В едва заметном, но сейсмически значимом обновлении своей корпоративной документации OpenAI удалила слово «безопасно» (safely) из своего основного заявления о миссии. Этот лингвистический сдвиг, замеченный в понедельник рано утром, произошел на фоне того, как гигант в сфере искусственного интеллекта ускоряет свой переход в коммерческую Общественно полезную корпорацию (Public Benefit Corporation, PBC), что знаменует окончательный отход от его изначальной концепции как некоммерческой исследовательской лаборатории, ориентированной на безопасность.
Это изменение, хотя оно и состоит всего из одного слова, вызывает резонанс во всей индустрии ИИ, подтверждая давние подозрения в том, что компания отдает приоритет скорости развертывания и коммерческой жизнеспособности перед принципами предосторожности, которые когда-то определяли её бренд. В то время как Сэм Альтман (Sam Altman) ведет организацию через её самую спорную на сегодняшний день реструктуризацию, удаление слова «безопасно», по-видимому, связано не столько с сокращением текста, сколько с приведением юридических обязательств в соответствие с новой, агрессивной операционной реальностью.
На протяжении многих лет миссия OpenAI была закреплена двойным обязательством: гарантировать, что Общий искусственный интеллект (Artificial General Intelligence, AGI), принесет пользу всему человечеству, и гарантировать, что он будет разработан безопасно. Обновленный текст, который теперь опубликован на страницах «Устав» (Charter) и «О нас» (About), сохраняет приверженность полезному AGI, но демонстративно опускает наречие, которое характеризовало процесс разработки.
Эта модификация не является просто косметической. В мире корпоративного права с высокими ставками — особенно для Общественно полезной корпорации (Public Benefit Corporation) — заявления о миссии служат «Полярной звездой» для обязанностей совета директоров. Удалив явное ограничение «безопасно» из миссии высшего уровня, OpenAI может юридически освободить себя от процессов безопасности, которые могли бы замедлить выпуск продуктов или помешать коммерческому партнерству.
Аналитики Creati.ai провели параллельное сравнение архивного заявления о миссии с версией, опубликованной сегодня. Различия подчеркивают четкий разворот в сторону неограниченной разработки.
Таблица 1: Сравнительный анализ изменений Заявления о миссии OpenAI (OpenAI Mission Statement)
| Предыдущий текст миссии | Обновленный текст миссии | Стратегическое значение |
|---|---|---|
| Чтобы гарантировать, что общий искусственный интеллект (AGI) разрабатывается безопасно и приносит пользу всему человечеству. | Чтобы гарантировать, что общий искусственный интеллект (AGI) приносит пользу всему человечеству. | Устраняет явный мандат на безопасность как предварительное условие разработки, отдавая приоритет результату в виде «пользы». |
| Мы попытаемся напрямую построить безопасный и полезный AGI. | Мы попытаемся напрямую построить полезный AGI. | Отделяет концепцию «пользы» от «безопасности», подразумевая, что полезность и экономическая ценность теперь могут превалировать над снижением рисков. |
| Если проект, ориентированный на ценности и заботящийся о безопасности, приблизится к созданию AGI раньше нас, мы обязуемся прекратить конкуренцию. | Если проект, ориентированный на ценности, приблизится к созданию AGI раньше нас, мы обязуемся прекратить конкуренцию. | Снижает порог того, что считается «ориентированным на ценности» конкурентом, потенциально исключая протоколы безопасности как критерий для сотрудничества. |
Время этого редактирования неразрывно связано с завершением реструктуризации OpenAI в коммерческую Общественно полезную корпорацию. С конца 2025 года компания преодолевала сложный процесс юридического роспуска своего первоначального некоммерческого совета управления — структуры, которая изначально была разработана для увольнения генерального директора, если миссия «безопасного AGI» будет поставлена под угрозу.
Теперь, когда некоммерческий совет фактически отодвинут на второй план, новая структура PBC позволяет OpenAI легально стремиться к прибыли для акционеров при условии, что они уравновешивают эту прибыль «общественной пользой». Удаление слова «безопасно» из заявления о миссии упрощает этот акт балансирования. Если «безопасность» остается основным, равноправным столпом миссии, член совета директоров теоретически может подать в суд на компанию за выпуск модели, несущей ненулевой риск. Удалив это слово, определение «общественной пользы» становится более гибким — вероятно, оно будет интерпретироваться как «экономический рост» или «технологический доступ», а не как «избегание рисков».
Юридические эксперты предполагают, что это оборонительный маневр. «В PBC миссия — это закон», — объясняет Сара Дженкинс (Sarah Jenkins), адвокат по корпоративному управлению, специализирующаяся на технологиях. «Если ваша миссия требует от вас действовать "безопасно", вы уязвимы для исков акционеров каждый раз, когда модель галлюцинирует или используется не по назначению. Удаляя это слово, OpenAI снижает свой щит ответственности, чтобы расчистить путь для быстрой коммерциализации».
Этот шаг вызвал немедленную негативную реакцию со стороны сообщества, занимающегося Безопасностью ИИ (AI safety), и бывших сотрудников OpenAI. Фракция «безопасников», которая постепенно вытеснялась из компании в течение последних двух лет, рассматривает это как последний гвоздь в гроб первоначального обещания организации.
Критики утверждают, что без явного мандата на безопасность OpenAI фактически работает как любая другая крупная технологическая фирма, несмотря на обладание технологией потенциально экзистенциального значения. «Это декларация о намерениях», — отметил бывший руководитель команды Superalignment (Superalignment), пожелавший остаться анонимным. «Они говорят миру, что если возникнет компромисс между выпуском модели на следующей неделе или её тестированием ещё в течение шести месяцев, они выберут выпуск. Ограждения безопасности теперь являются дополнительными функциями, а не основополагающими ограничениями».
Напротив, сторонники изменений — включая многих в лагере акселерационистов (e/acc) — утверждают, что слово «безопасно» стало термином-оружием, используемым для торможения прогресса. Они утверждают, что величайшим риском для человечества является не вышедший из-под контроля ИИ, а неспособность внедрить решения ИИ для лечения болезней и решения проблем изменения климата. С этой точки зрения обновление миссии является необходимой корректировкой для раскрытия полного потенциала технологии.
Сдвиг в OpenAI резко контрастирует со стратегиями, применяемыми её основными конкурентами. В то время как OpenAI смягчает свои формулировки, Anthropic, по сообщениям, удваивает ставку на безопасность как на уникальное торговое предложение для получения государственных контрактов.
Согласно отчетам The New York Times, Пентагон в настоящее время оценивает основные партнерства в области ИИ для своих систем совместного командования. Anthropic позиционирует свою концепцию «Конституционного ИИ» (Constitutional AI), которая встраивает правила безопасности непосредственно в код модели, как надежный выбор для оборонных приложений. Поддерживая строгий брендинг, ориентированный на безопасность, Anthropic занимает нишу «ответственной» альтернативы доминированию OpenAI, действующей по принципу «двигайся быстро».
Однако изменение миссии OpenAI на самом деле может способствовать более тесным связям с правительством США другим способом. Удалив ограничивающие формулировки о безопасности, которые могли бы исключить разработку систем вооружения или наступательных кибервозможностей, OpenAI, возможно, устраняет этические барьеры, которые ранее препятствовали глубокому сотрудничеству с Министерством обороны. Миссия, ориентированная исключительно на «пользу», достаточно широка, чтобы охватить интересы национальной безопасности, в то время как строгий мандат на «безопасность» мог быть интерпретирован как запрет на военные применения, которые по своей сути предполагают причинение вреда противникам.
В конечном счете, удаление слова «безопасно» из заявления о миссии служит сигналом того, что сроки создания AGI сжимаются. OpenAI больше не работает в фазе теоретических исследований; она находится в фазе развертывания. Компания ожидает, что системы, которые она выпустит в 2026 и 2027 годах, будут достаточно мощными, чтобы перестроить глобальную экономику, и она структурирует свое управление так, чтобы пережить юридические и финансовые потрясения этого процесса.
Для всей экосистемы это создает опасный прецедент. Если лидер отрасли больше не считает «безопасность» основным, заявленным столпом своей миссии, давление на другие лаборатории с целью «срезать углы» возрастает. «Гонка на дно», которой опасались сторонники безопасности, похоже, ускоряется, а документы корпоративного управления переписываются, чтобы соответствовать скорости этой гонки.
По мере того как OpenAI завершает свою метаморфозу в коммерческую структуру, мир должен считаться с новой реальностью: организация, создающая самый мощный интеллект в истории, только что удалила слово, призванное защитить нас от него.