
Ha surgido una nueva y preocupante dimensión en la investigación sobre el devastador tiroteo masivo en Tumbler Ridge, Columbia Británica. Las revelaciones confirmadas esta semana indican que el autor, Jesse Van Rootselaar, de 18 años, logró mantener con éxito una segunda cuenta de ChatGPT que pasó completamente desapercibida para la infraestructura de seguridad de OpenAI. Este descubrimiento ha desatado una oleada de críticas respecto a la eficacia de los protocolos de seguridad de la inteligencia artificial (IA) y ha provocado demandas inmediatas de acción legislativa por parte de los funcionarios canadienses.
El reconocimiento por parte de OpenAI de que sus sistemas no detectaron la segunda cuenta del atacante —creada después de que su cuenta principal fuera suspendida por generar contenido violento— ha cambiado fundamentalmente el discurso en torno a la gobernanza de la IA. Plantea interrogantes urgentes sobre la capacidad de los principales laboratorios de IA para hacer cumplir sus propias políticas de uso aceptable y evitar que actores malintencionados eludan las prohibiciones para seguir utilizando potentes modelos generativos.
El núcleo de la controversia reside en un lapso significativo dentro de los sistemas de gestión de usuarios y aplicación de medidas de seguridad de OpenAI. Según los detalles revelados en una investigación interna y las comunicaciones posteriores con funcionarios del gobierno canadiense, el atacante pudo eludir una prohibición impuesta en junio de 2025.
La prohibición inicial se activó después de que la primera cuenta de Van Rootselaar generara contenido que violaba las políticas de OpenAI relativas a la "promoción de actividades violentas". Los informes indican que estas interacciones incluían escenarios detallados relacionados con la violencia armada. Sin embargo, en aquel momento, los equipos de confianza y seguridad de OpenAI determinaron que el contenido no alcanzaba el umbral de "planificación creíble o inminente" de violencia en el mundo real y, por lo tanto, no se realizó ninguna notificación a la Real Policía Montada de Canadá (RCMP, Royal Canadian Mounted Police).
El fallo crítico ocurrió tras esta prohibición. A pesar de la suspensión de sus credenciales principales, el atacante estableció una segunda cuenta activa. El sistema de "detección de infractores reincidentes" (repeat violator detection) de OpenAI —diseñado específicamente para evitar que los usuarios expulsados regresen a la plataforma— no logró vincular esta nueva cuenta con el usuario prohibido.
Ann O’Leary, vicepresidenta de Política Global de OpenAI, admitió en una carta a las autoridades que la empresa solo descubrió la existencia de esta segunda cuenta después de que la identidad del atacante fuera hecha pública por las fuerzas del orden tras la tragedia del 10 de febrero. La incapacidad del sistema para cotejar la nueva cuenta con la identidad prohibida sugiere lagunas en el rastreo de huellas digitales, el seguimiento de IP o los protocolos de análisis de comportamiento que son estándar en la ciberseguridad moderna.
Para los expertos en ciberseguridad y seguridad de la IA (AI safety), el incidente de Tumbler Ridge pone de relieve el inmenso desafío que supone vigilar el acceso a herramientas de IA ampliamente disponibles. Aunque OpenAI no ha revelado los vectores técnicos específicos utilizados para evadir la detección, el incidente señala las limitaciones en la forma en que las plataformas de IA gestionan la verificación de identidad.
El fallo sugiere que los mecanismos de detección dependían en gran medida de identificadores estáticos —como direcciones de correo electrónico o números de teléfono— en lugar de señales dinámicas más robustas, como la telemetría del dispositivo o la biometría conductual. Si un usuario simplemente cambia de credenciales y accede a la plataforma desde una red o dispositivo diferente, las prohibiciones estándar pueden eludirse fácilmente.
La "brecha de seguridad" en las plataformas de IA:
Las repercusiones políticas han sido rápidas y severas. El Ministro de Inteligencia Artificial e Innovación Digital de Canadá, Evan Solomon, ha expresado públicamente su profunda decepción con la gestión de la situación por parte de OpenAI. Tras una tensa reunión con ejecutivos de OpenAI en Ottawa, el ministro Solomon caracterizó las respuestas iniciales de la empresa como insuficientes, careciendo de "propuestas concretas" para un cambio sistémico.
El ministro Solomon ha abogado por la necesidad de un cambio de paradigma en la forma en que las empresas de IA interactúan con las fuerzas del orden. El gobierno está impulsando regulaciones más estrictas que obligarían a informar cuando los usuarios generen contenido que represente un riesgo para la seguridad pública, incluso si no alcanza el umbral de "amenaza inminente" que anteriormente guiaba las decisiones de OpenAI.
"Los canadienses merecen una mayor claridad sobre cómo se toman las decisiones de revisión humana", afirmó Solomon, enfatizando que el enfoque actual de autorregulación no está protegiendo al público. El Ministro ha amenazado explícitamente con una nueva legislación, acelerando potencialmente las enmiendas a marcos legales como el Proyecto de ley C-27 (Bill C-27), para obligar a las empresas de IA a asumir una mayor responsabilidad por el contenido generado y los usuarios alojados en sus plataformas.
Las demandas del gobierno incluyen:
En respuesta a la creciente presión, OpenAI se ha comprometido a una serie de "pasos inmediatos" para rectificar las lagunas identificadas por la investigación. En su correspondencia con el ministro Solomon, Ann O’Leary esbozó nuevos protocolos destinados a cerrar el cerco sobre los usuarios peligrosos.
La empresa ha declarado que, bajo su nuevo protocolo de notificación a las fuerzas del orden —desarrollado a raíz de la tragedia—, la actividad del atacante de junio de 2025 habría sido notificada a la RCMP. Esta admisión, aunque pretende demostrar progreso, ha sido recibida por las familias de las víctimas y los funcionarios como un trágico "consuelo amargo", confirmando que la tragedia podría haber sido evitable con políticas más estrictas aplicadas anteriormente.
OpenAI también promete mejorar sus sistemas técnicos para identificar mejor a los infractores reincidentes. Esto incluye "priorizar la identificación de los infractores de mayor riesgo" y perfeccionar los sistemas automatizados que escanean violaciones de las políticas. La empresa ha prometido trabajar estrechamente con las autoridades canadienses para "evaluar periódicamente los umbrales" utilizados por sus sistemas automatizados, reconociendo que el contexto canadiense requiere una atención específica.
La siguiente tabla resume las diferencias críticas entre los protocolos vigentes durante la actividad del atacante y las mejoras propuestas.
La siguiente tabla contrasta la gestión de las cuentas del atacante con los nuevos compromisos adquiridos por OpenAI.
| Aspecto del protocolo | Gestión del atacante (2025-2026) | Nuevos compromisos de protocolo (post-incidente) |
|---|---|---|
| Activador de contenido violento | Marcado internamente; prohibido pero considerado "no inminente". | Umbral reducido; el "Riesgo de daño grave" ahora activa la revisión. |
| Notificación a las fuerzas del orden | No se realizó ninguna notificación a la RCMP a pesar de los escenarios de violencia armada. | Notificación obligatoria a las fuerzas del orden para contenidos similares. |
| Detección de elusión de prohibición | Fallo al detectar la segunda cuenta creada por el usuario prohibido. | Sistema de "infractor reincidente" mejorado con mejor coincidencia de identidad. |
| Colaboración policial | Ad-hoc; dependía de los canales estándar de solicitud legal. | Punto de contacto directo dedicado 24/7 para la policía canadiense. |
| Visibilidad interna | Aislada; la segunda cuenta se trató como un usuario nuevo y limpio. | Historial integrado; las prohibiciones anteriores informan la evaluación de riesgo de las nuevas cuentas. |
El caso de Tumbler Ridge está destinado a convertirse en un momento decisivo para la seguridad de la IA, comparable a cómo las primeras tragedias en las redes sociales dieron forma a las leyes de moderación de contenidos. Desafía la suposición generalizada en la industria de que la "confianza y seguridad" es meramente una función de servicio al cliente en lugar de un imperativo de seguridad pública.
Para Creati.ai y la comunidad de la IA en general, esto sirve como un recordatorio contundente de la naturaleza de "doble uso" (dual-use) de estas tecnologías. A medida que los modelos se vuelven más capaces, los mecanismos para controlar su uso indebido deben evolucionar en paralelo. La dependencia de filtros automatizados que buscan palabras clave específicas es evidentemente insuficiente; la seguridad requiere una visión holística del comportamiento del usuario y una gestión de identidad robusta.
Además, este incidente subraya los riesgos de responsabilidad a los que se enfrentan los desarrolladores de IA. Si una plataforma es consciente de las tendencias violentas de un usuario (a través de una prohibición) pero no evita que vuelva a acceder al servicio, el argumento de negligencia se vuelve más sólido. Esto podría dar lugar a una ola de litigios y a requisitos de cumplimiento estrictos que alterarán fundamentalmente el panorama operativo para todas las empresas de IA que operan en Canadá y en todo el mundo.
Mientras la RCMP continúa su investigación y las familias de las víctimas guardan luto, la atención sigue centrada en garantizar que las lagunas digitales que permitieron que Jesse Van Rootselaar se filtrara se cierren permanentemente. La era de "moverse rápido y romper cosas" (move fast and break things) en el desarrollo de la IA parece haber terminado definitivamente, reemplazada por un nuevo mandato de rendición de cuentas, transparencia y aplicación rigurosa de la seguridad.