
В откровенном признании, которое бросает вызов сложившемуся в технологическом секторе нарративу, генеральный директор (CEO) OpenAI Сэм Альтман обвинил компании в использовании «ИИ-вошинга» (AI washing) в связи с недавними массовыми увольнениями. Выступая на саммите India AI Impact Summit в Нью-Дели, Альтман предположил, что корпоративные лидеры используют искусственный интеллект (AI) в качестве удобного козла отпущения, чтобы скрыть неудачные стратегические решения и избыточный наем персонала после пандемии.
Эти комментарии, сделанные во время интервью CNBC-TV18, дают редкую возможность заглянуть в суть противоречия между шумихой вокруг автоматизации с помощью ИИ и экономическими реалиями, с которыми столкнется технологическая индустрия в 2026 году. Хотя Альтман остается твердым сторонником преобразующей силы ИИ, его отказ позволить руководителям прятаться за его технологиями ради рутинного сокращения затрат знаменует собой значительный поворот в текущих дебатах о будущем сферы труда.
Термин «гринвошинг» (greenwashing) уже давно используется для описания компаний, которые преувеличивают свои усилия по защите окружающей среды. Альтман адаптировал структуру этого термина для описания нового корпоративного феномена: ИИ-вошинг (AI washing). В данном контексте это относится к практике приписывания сокращения штата «эффективности, обусловленной ИИ» или «переходу к автоматизации», когда основными факторами на самом деле являются финансовые просчеты или коррекция раздутого ранее штата.
«Я не знаю точного процента, но имеет место определенный ИИ-вошинг, когда люди обвиняют ИИ в увольнениях, которые они бы провели в любом случае», — сказал Альтман аудитории в Нью-Дели.
Эта стратегия служит двум корыстным целям корпоративного руководства:
Представляя увольнения как необходимую эволюцию в сторону ИИ, генеральные директора часто могут поднять цены на акции и успокоить инвесторов, стремящихся увидеть отдачу от масштабных инвестиций в ИИ-инфраструктуру, даже если сама технология еще не способна заменить сокращаемые роли.
Данные аналитических фирм рынка труда подтверждают скептицизм Альтмана. В то время как в заголовках 2024 и 2025 годов доминировали объявления об «ИИ-реструктуризации», лежащие в основе цифры говорят о другом. Отчеты таких фирм, как Challenger, Gray & Christmas, указывают на то, что, хотя ИИ все чаще упоминается в объявлениях об увольнениях, он составляет лишь малую часть реального объема сокращений рабочих мест по сравнению с традиционными экономическими факторами.
В следующей таблице сопоставляется нарратив, часто продвигаемый технологическими компаниями, с экономическими реалиями, наблюдаемыми рыночными аналитиками:
Таблица: Проверка реальности увольнений
| Заявленный нарратив | Экономическая реальность | Стратегическая мотивация |
|---|---|---|
| «Мы меняем структуру, чтобы соответствовать нашему будущему, ориентированному на ИИ». | Увольнения в первую очередь вызваны исправлением избыточного найма времен пандемии (2020–2022 гг.). | Казаться инновационными и скрыть плохие прогнозы от акционеров. |
| «ИИ-агенты теперь справляются с этими рабочими процессами». | Текущие инструменты ИИ (по состоянию на 2026 год) все еще требуют значительного человеческого контроля для сложных задач. | Оправдать огромные капитальные затраты (CAPEX) на GPU и центры обработки данных. |
| «Автоматизация является единственным драйвером этих сокращений». | Рост процентных ставок и замедление роста выручки являются основными катализаторами. | Переложить вину на внешние технологические силы, а не на менеджмент. |
Важно отметить, что Альтман не отверг угрозу вытеснения людей ИИ полностью. Он провел четкую грань между «фейковыми» увольнениями из-за ИИ, происходящими сейчас, и «реальным» вытеснением, которое начинает проявляться.
«Существует определенное реальное вытеснение ИИ различных видов работ», — отметил Альтман, добавив, что он ожидает, что это воздействие станет «ощутимым» в ближайшие годы. Его предупреждение на саммите было суровым: «Будет очень трудно работать лучше, чем графический процессор (GPU)».
Этот нюанс жизненно важен для понимания работниками и политиками. Если общество полностью сосредоточится на аспекте «ИИ-вошинга», отвергая все заявления о потере рабочих мест из-за ИИ как корпоративную ложь, оно рискует оказаться неподготовленным к подлинным структурным сдвигам, которые ускоряют OpenAI и другие лаборатории. Опасность заключается в ложной тревоге: если каждая стандартная корпоративная реструктуризация будет помечаться как «вытеснение ИИ», общественность может стать нечувствительной к этой проблеме до того, как ударит реальная волна безработицы, вызванная автоматизацией.
Комментарии Альтмана вызвали особый резонанс, учитывая место проведения мероприятия. India AI Impact Summit стал первым случаем, когда столь значимое глобальное собрание по вопросам ИИ было проведено на Глобальном Юге. Индия стала критически важным игроком в экосистеме ИИ не только как источник талантов, но и как масштабный рынок для внедрения.
Во время своего визита Альтман подчеркнул, что Индия является самым быстрорастущим рынком для Codex, инструмента программирования от OpenAI, использование которого выросло в четыре раза всего за две недели. Это говорит о том, что в то время как западные корпорации могут использовать ИИ как повод для увольнений, индийские разработчики активно используют его для созидания. Такое сопоставление высвечивает глобальный разрыв: на зрелых рынках ИИ в настоящее время является инструментом нарратива для эффективности (и увольнений), в то время как на развивающихся рынках он используется как инструмент для быстрого расширения возможностей.
Для отраслевых обозревателей в Creati.ai признание Альтмана является призывом к действию для обеспечения большей корпоративной прозрачности (corporate transparency). Пока мы ориентируемся в «Эпохе ИИ» (Age of AI), точность формулировок имеет значение. Объединение циклических неудач бизнеса под знаменем «ИИ-трансформации» наносит ущерб как технологии, так и рабочей силе.
Компании должны быть честными в отношении того, почему они сокращают рабочие места. Если это происходит потому, что они наняли слишком много людей в 2021 году, они должны нести ответственность за это решение. Если это происходит потому, что ИИ-агент действительно может писать код или обрабатывать запросы в службу поддержки лучше человека, они должны предоставить данные, подтверждающие это. «ИИ-вошинг» мутит воду, делая невозможным решение реальных проблем переподготовки рабочей силы.
Как предупредил Альтман, реальный сдвиг уже близко. В интересах каждого — отделить сигнал от шума до того, как он наступит.