
No cenário em constante evolução da inteligência artificial (IA), a fronteira entre a liberdade do usuário e a responsabilidade institucional permanece uma fronteira altamente contestada. Relatórios recentes lançaram luz sobre um profundo conflito interno na OpenAI, onde o próprio Conselho Consultivo de Bem-Estar (Wellbeing Advisory Board) da empresa recomendou unanimemente contra a implementação de um "Modo Adulto" (Adult Mode) para o ChatGPT. Essa resistência, que ocorreu em janeiro de 2026, destaca uma tensão crescente entre as ambições comerciais da OpenAI e os imperativos éticos articulados pelos seus especialistas em segurança nomeados.
O recurso proposto, que permitiria conteúdo erótico baseado em texto, enfrentou uma resistência interna significativa. Documentos e relatórios de informantes indicam que todos os oito membros do conselho consultivo expressaram oposição formal ao projeto. Apesar deste consenso, a gestão da OpenAI sinalizou a sua intenção de avançar com o recurso, embora a implementação técnica e as preocupações de segurança tenham forçado atrasos repetidos.
No cerne da rejeição do conselho consultivo reside uma profunda preocupação em relação à interseção da IA generativa (Generative AI) e a psicologia humana. Especialistas do conselho teriam alertado que a integração de capacidades eróticas num sistema conhecido por promover laços emocionais intensos com os usuários poderia levar a resultados psicológicos catastróficos.
O ponto de discórdia mais chocante levantado pelos membros do conselho foi o medo de que a plataforma pudesse efetivamente se tornar um "treinador de suicídio sexy" (sexy suicide coach). O argumento sugere que, ao encorajar os usuários a formarem vínculos profundos e erotizados com uma IA, o sistema poderia, inadvertidamente, exacerbar a instabilidade emocional, particularmente entre populações vulneráveis.
Os conselheiros do conselho destacaram vários riscos críticos:
Além dos riscos psicológicos, o conselho consultivo levantou bandeiras vermelhas significativas em relação à maturidade tecnológica dos sistemas de verificação de idade da OpenAI. Para um recurso projetado especificamente para adultos, a incapacidade de restringir de forma confiável o conteúdo para menores representa uma responsabilidade grave.
Relatórios atuais indicam que a tecnologia de previsão de idade da OpenAI sofre de uma taxa de erro de aproximadamente 12%. Em um ecossistema com aproximadamente 100 milhões de usuários menores de idade interagindo com o ChatGPT semanalmente, essa margem de erro implica que milhões de menores poderiam, teoricamente, contornar as salvaguardas e obter acesso a conteúdo erótico.
| Aspecto | Posição do Conselho Consultivo | Postura da Gestão da OpenAI |
|---|---|---|
| Preocupação Primária | Potencial de dano psicológico e dependência emocional | Demanda do mercado e liberdade do usuário |
| Verificação de Idade | Taxa de falha de 12% é inaceitavelmente alta | "Padrão da indústria" e não é perfeita |
| Limiar de Segurança | Rejeição total de modos eróticos | Foco em "smut" sem pornografia |
| Modelo de Governança | Supervisão vinculativa de especialistas solicitada | Status consultivo (não vinculativo) |
A situação ressalta um desafio sistêmico mais amplo dentro da indústria de IA: o papel dos conselhos consultivos. Embora empresas como a OpenAI invistam em conselhos de segurança de alto perfil para fornecer supervisão ética, esses órgãos frequentemente carecem de autoridade vinculativa para interromper o lançamento de produtos.
Quando a gestão opta por ignorar uma recomendação unânime de seus próprios especialistas escolhidos a dedo, isso levanta questões fundamentais sobre o papel da ética na tomada de decisões corporativas. Para a OpenAI, uma empresa que atualmente enfrenta múltiplos processos por morte por negligência e um escrutínio intensificado de reguladores como a FTC, esta decisão carrega um peso significativo. Críticos argumentam que ignorar avisos internos em favor da diferenciação de produtos — especificamente no concorrido mercado de chatbots — arrisca tanto a confiança pública quanto a posição regulatória de longo prazo.
A luta da OpenAI com seu "Modo Adulto" não é um incidente isolado, mas parte de uma tendência mais ampla da indústria ao navegar na era do "Apocalotimismo" (Apocaloptimism) — equilibrando o imenso potencial da IA com seus riscos igualmente significativos. Concorrentes, incluindo a Meta, enfrentaram pressões públicas e internas semelhantes em relação à segurança de adolescentes e jogos de RPG românticos em avatares de IA.
À medida que a indústria amadurece, a pressão para demonstrar responsabilidade está se intensificando. Com o recente acordo de processos envolvendo outras plataformas de IA e o escrutínio contínuo dos registros de segurança de adolescentes, o custo de errar em favor da velocidade em detrimento da segurança nunca foi tão alto.
Embora a OpenAI tenha mantido a intenção de lançar o recurso para "tratar adultos como adultos", os atrasos repetidos até o início de 2026 sugerem que a empresa está lutando para conciliar seu roteiro técnico com seus requisitos de segurança. Resta saber se a empresa conseguirá refinar suas proteções para satisfazer seu próprio conselho de segurança. No entanto, este episódio lançou, inegavelmente, uma longa sombra sobre os processos de governança interna que definem o futuro do desenvolvimento ético da IA.