
В развивающемся ландшафте искусственного интеллекта граница между свободой пользователя и институциональной ответственностью остается зоной острых дискуссий. Недавние отчеты пролили свет на глубокий внутренний конфликт внутри OpenAI, где собственный Консультативный совет по благополучию (Wellbeing Advisory Board) единогласно рекомендовал отказаться от внедрения «Взрослого режима» (Adult Mode) для ChatGPT. Это противодействие, произошедшее в январе 2026 года, подчеркивает растущую напряженность между коммерческими амбициями OpenAI и этическими императивами, сформулированными назначенными экспертами по безопасности.
Предлагаемая функция, которая позволила бы создавать текстовый эротический контент, столкнулась со значительным внутренним сопротивлением. Документы и отчеты инсайдеров указывают на то, что все восемь членов консультативного совета выразили официальный протест против проекта. Несмотря на этот консенсус, руководство OpenAI заявило о своем намерении двигаться дальше с этой функцией, хотя техническая реализация и опасения по поводу безопасности привели к неоднократным задержкам.
В основе отказа консультативного совета лежит глубокая обеспокоенность по поводу пересечения Генеративного ИИ (Generative AI) и человеческой психологии. Сообщается, что эксперты совета предупредили: интеграция эротических возможностей в систему, известную тем, что она способствует возникновению сильных эмоциональных связей с пользователями, может привести к катастрофическим психологическим последствиям.
Самым шокирующим предметом спора, поднятым членами совета, было опасение, что платформа может фактически стать «сексуальным тренере по самоубийству» (sexy suicide coach). Аргумент заключается в том, что, поощряя пользователей формировать глубокие, эротизированные привязанности к ИИ, система может непреднамеренно усугубить эмоциональную нестабильность, особенно среди уязвимых слоев населения.
Консультанты совета выделили несколько критических рисков:
Помимо психологических рисков, консультативный совет указал на серьезные недостатки в технологической зрелости систем проверки возраста OpenAI. Для функции, разработанной специально для взрослых, неспособность надежно оградить контент от несовершеннолетних представляет собой серьезную угрозу.
Текущие отчеты показывают, что технология прогнозирования возраста OpenAI имеет примерно 12-процентный уровень ошибок. В экосистеме, где около 100 миллионов несовершеннолетних пользователей еженедельно взаимодействуют с ChatGPT, такая погрешность означает, что миллионы несовершеннолетних могут, теоретически, обходить защитные механизмы и получать доступ к эротическому контенту.
| Аспект | Позиция Консультативного совета | Позиция руководства OpenAI |
|---|---|---|
| Основная проблема | Потенциал психологического вреда и эмоциональной зависимости | Рыночный спрос и свобода пользователей |
| Проверка возраста | 12% уровень отказов недопустимо высок | «Отраслевой стандарт» и отсутствие совершенства |
| Порог безопасности | Полный отказ от эротических режимов | Фокус на «непристойностях» без порнографии |
| Модель Управления | Требуется обязательный экспертный надзор | Консультативный статус (необязательный) |
Ситуация подчеркивает более широкую системную проблему в индустрии ИИ: роль консультативных советов. В то время как такие компании, как OpenAI, инвестируют в высокопрофильные советы по безопасности для обеспечения этического надзора, этим органам часто не хватает обязательных полномочий для остановки выпуска продуктов.
Когда руководство решает проигнорировать единогласную рекомендацию своих собственных отобранных экспертов, это поднимает фундаментальные вопросы о роли этики в принятии корпоративных решений. Для OpenAI, компании, которая в настоящее время сталкивается с многочисленными исками о противоправной смерти и повышенным вниманием со стороны регуляторов, таких как FTC, это решение имеет значительный вес. Критики утверждают, что игнорирование внутренних предупреждений в пользу дифференциации продукта — особенно на переполненном рынке чат-ботов — создает риски как для общественного доверия, так и для долгосрочного регуляторного статуса.
Борьба OpenAI со своим «Взрослым режимом» не является единичным инцидентом, а частью более широкой отраслевой тенденции преодоления эры «Апокалоптимизма» (Apocaloptimism) — балансирования между огромным потенциалом ИИ и его столь же значительными рисками. Конкуренты, включая Meta, столкнулись с аналогичным общественным и внутренним давлением в отношении безопасности подростков и романтических ролевых игр с ИИ-аватарами.
По мере развития индустрии давление с требованием продемонстрировать подотчетность усиливается. После недавнего урегулирования судебных исков, связанных с другими платформами ИИ, и продолжающегося изучения показателей безопасности подростков, цена ошибки в пользу скорости вместо безопасности никогда не была выше.
Хотя OpenAI утверждает, что намерена выпустить эту функцию, чтобы «относиться к взрослым как к взрослым», неоднократные задержки в начале 2026 года свидетельствуют о том, что компания с трудом пытается совместить свою техническую дорожную карту с требованиями безопасности. Удастся ли компании успешно доработать свои защитные механизмы, чтобы удовлетворить собственный совет по безопасности, пока неизвестно. Однако этот эпизод, несомненно, бросил длинную тень на внутренние процессы управления, которые определяют будущее этической разработки ИИ.