
En el panorama evolutivo de la inteligencia artificial, la frontera entre la libertad del usuario y la responsabilidad institucional sigue siendo un frente de intenso conflicto. Informes recientes han arrojado luz sobre un profundo conflicto interno dentro de OpenAI, donde el propio Consejo Asesor de Bienestar (Wellbeing Advisory Board) de la empresa recomendó unánimemente no implementar un "Modo Adulto" (Adult Mode) para ChatGPT. Este rechazo, que ocurrió en enero de 2026, resalta una creciente tensión entre las ambiciones comerciales de OpenAI y los imperativos éticos articulados por sus expertos en seguridad designados.
La función propuesta, que permitiría contenido erótico basado en texto, ha enfrentado una resistencia interna significativa. Documentos e informes de fuentes internas indican que los ocho miembros del consejo asesor expresaron su oposición formal al proyecto. A pesar de este consenso, la gerencia de OpenAI ha señalado su intención de seguir adelante con la función, aunque la implementación técnica y las preocupaciones de seguridad han forzado repetidos retrasos.
En el centro del rechazo del consejo asesor se encuentra una profunda preocupación respecto a la intersección de la IA generativa y la psicología humana. Según se informa, los expertos del consejo advirtieron que integrar capacidades eróticas en un sistema conocido por fomentar vínculos emocionales intensos con los usuarios podría conducir a resultados psicológicos catastróficos.
El punto de discordia más impactante planteado por los miembros del consejo fue el temor de que la plataforma pudiera convertirse efectivamente en un "entrenador de suicidio sexy" (sexy suicide coach). El argumento sugiere que, al alentar a los usuarios a formar vínculos profundos y erotizados con una IA, el sistema podría exacerbar inadvertidamente la inestabilidad emocional, particularmente entre las poblaciones vulnerables.
Los asesores del consejo destacaron varios riesgos críticos:
Más allá de los riesgos psicológicos, el consejo asesor planteó importantes señales de alerta con respecto a la madurez tecnológica de los sistemas de verificación de edad de OpenAI. Para una función diseñada específicamente para adultos, la incapacidad de restringir de manera confiable el contenido a los menores representa una responsabilidad grave.
Los informes actuales indican que la tecnología de predicción de edad de OpenAI sufre una tasa de error de aproximadamente el 12 por ciento. En un ecosistema con aproximadamente 100 millones de usuarios menores de edad que interactúan con ChatGPT semanalmente, este margen de error implica que millones de menores podrían, teóricamente, eludir las salvaguardas y obtener acceso a contenido erótico.
| Aspecto | Posición del Consejo Asesor | Postura de la Gerencia de OpenAI |
|---|---|---|
| Preocupación Principal | Potencial de daño psicológico y dependencia emocional | Demanda del mercado y libertad del usuario |
| Verificación de Edad | La tasa de fallo del 12% es inaceptablemente alta | "Estándar de la industria" y no es perfecta |
| Umbral de Seguridad | Rechazo total de los modos eróticos | Enfoque en contenido erótico sin pornografía |
| Modelo de Gobernanza | Se solicita supervisión experta vinculante | Estatus consultivo (no vinculante) |
La situación subraya un desafío sistémico más amplio dentro de la industria de la IA: el papel de los consejos asesores. Si bien empresas como OpenAI invierten en consejos de seguridad de alto perfil para proporcionar supervisión ética, estos organismos frecuentemente carecen de la autoridad vinculante para detener los lanzamientos de productos.
Cuando la gerencia elige anular una recomendación unánime de sus propios expertos seleccionados, surgen preguntas fundamentales sobre el papel de la ética en la toma de decisiones corporativas. Para OpenAI, una empresa que actualmente navega por múltiples demandas por muerte por negligencia y un mayor escrutinio de reguladores como la FTC, esta decisión conlleva un peso significativo. Los críticos argumentan que ignorar las advertencias internas en favor de la diferenciación del producto —específicamente en el saturado mercado de los chatbots— pone en riesgo tanto la confianza pública como la posición regulatoria a largo plazo.
La lucha de OpenAI con su "Modo Adulto" (Adult Mode) no es un incidente aislado, sino parte de una tendencia más amplia de la industria de navegar por la era del "Apocaloptimismo" (Apocaloptimism): equilibrar el inmenso potencial de la IA con sus riesgos igualmente significativos. Sus competidores, incluyendo Meta, han enfrentado presiones públicas e internas similares con respecto a la seguridad de los adolescentes y los juegos de rol románticos en avatares de IA.
A medida que la industria madura, la presión para demostrar responsabilidad se está intensificando. Con el reciente acuerdo de demandas que involucran a otras plataformas de IA y el escrutinio continuo de los registros de seguridad de los adolescentes, el costo de errar por el lado de la velocidad sobre la seguridad nunca ha sido tan alto.
Si bien OpenAI ha sostenido que tiene la intención de lanzar la función para "tratar a los adultos como adultos", los repetidos retrasos hasta principios de 2026 sugieren que la empresa está luchando por cuadrar el círculo entre su hoja de ruta técnica y sus requisitos de seguridad. Queda por ver si la empresa logrará refinar sus barreras de protección para satisfacer a su propio consejo de seguridad. Sin embargo, este episodio ha proyectado innegablemente una larga sombra sobre los procesos de gobernanza interna que definen el futuro del desarrollo ético de la IA.