
En un movimiento que señala un potencial punto de inflexión para la regulación global de la Inteligencia Artificial (Artificial Intelligence, IA), el Ministro de Inteligencia Artificial e Innovación Digital de Canadá, Evan Solomon, ha convocado al liderazgo senior de seguridad de OpenAI a Ottawa. La reunión urgente, programada para el martes, se produce tras la revelación de que el gigante tecnológico había marcado la cuenta de ChatGPT del tirador de la escuela de Tumbler Ridge por contenido violento ocho meses antes del ataque, pero no informó al usuario a las autoridades policiales.
La citación se produce en medio de una ola de dolor y rabia nacional después de que Jesse Van Rootselaar, de 18 años, matara a ocho personas en Tumbler Ridge, Columbia Británica. Entre las víctimas se encontraban su madre y su hermanastro, así como un asistente de enseñanza y cinco estudiantes de una escuela local. El incidente ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas de supervisar e informar sobre las amenazas potenciales detectadas por sus sistemas.
La controversia se centra en el manejo interno de OpenAI de la actividad de la cuenta de Van Rootselaar en junio de 2025. Según las declaraciones de la empresa, las interacciones del usuario con ChatGPT fueron marcadas por los sistemas de detección de abusos por el "fomento de actividades violentas". Aunque OpenAI tomó la medida de prohibir la cuenta por violar sus políticas de uso, no escaló el asunto a la Real Policía Montada del Canadá (Royal Canadian Mounted Police, RCMP).
OpenAI ha declarado que su revisión interna en aquel momento concluyó que la actividad de la cuenta no alcanzaba el umbral necesario para una remisión a las autoridades policiales. La política de la empresa dicta que las autoridades solo son notificadas si existe un "riesgo creíble e inminente" de daño físico grave. Fue solo después de la masacre del 10 de febrero de 2026 cuando los empleados de OpenAI, al darse cuenta de la conexión, se pusieron en contacto con la RCMP con información relativa al historial digital del tirador.
El primer ministro de Columbia Británica, David Eby, expresó su profunda frustración con el proceso de toma de decisiones de la empresa. "Desde fuera, parece que OpenAI tuvo la oportunidad de evitar esta tragedia, de evitar esta horrible pérdida de vidas", dijo Eby a los periodistas. "Estoy enfadado por eso".
El ministro Solomon ha dejado claro que el statu quo respecto a la autorregulación de la IA está bajo un severo escrutinio. Se espera que la reunión en Ottawa se centre principalmente en los criterios específicos que OpenAI utiliza para determinar cuándo un usuario representa una amenaza física.
"Los canadienses esperan, en primer lugar, que sus hijos en particular estén seguros y que estas organizaciones actúen de manera responsable", declaró Solomon el lunes. Indicó que, aunque no se comprometería preventivamente con una legislación específica, "todas las opciones están sobre la mesa", incluyendo marcos regulatorios más estrictos para los chatbots de IA y los modelos generativos (Generative AI).
El núcleo de la discusión probablemente girará en torno al estándar de "riesgo inminente". Los críticos argumentan que este umbral es demasiado alto para los sistemas de IA que pueden detectar signos tempranos de radicalización o ideación violenta mucho antes de que un plan específico se ponga en marcha.
Expertos legales y éticos señalan este incidente como evidencia de que las empresas de IA deberían estar sujetas a estándares similares a los de los profesionales de la salud y los educadores. Alan Mackworth, profesor emérito de la Universidad de Columbia Británica especializado en seguridad de la IA, sugirió que un "deber de informar" legal debería extenderse a los proveedores de tecnología.
Actualmente, profesionales como médicos y profesores tienen el mandato legal de informar sobre sospechas de daño a menores o violencia inminente. El vacío en la legislación sobre las plataformas de IA permite que las empresas prioricen la privacidad del usuario o las políticas internas sobre la seguridad pública, un vacío que el gobierno canadiense parece ahora dispuesto a cerrar.
La siguiente tabla resume la disparidad entre las prácticas actuales de la industria y las expectativas regulatorias que ahora expresan los funcionarios canadienses.
| Característica | Práctica actual de la industria (Autorregulación) | Expectativas regulatorias propuestas (Canadá) |
|---|---|---|
| Umbral de riesgo | Se requiere "riesgo inminente y creíble" de daño físico para informar. | "Sospecha razonable" de violencia o daño potencial. |
| Mecanismo de notificación | Remisión voluntaria a las autoridades basada en una revisión interna. | Notificación obligatoria (Deber de informar) para categorías de amenazas específicas. |
| Acción sobre la cuenta | Prohibición o suspensión del servicio; los datos del usuario suelen conservarse internamente. | Suspensión inmediata acompañada de una alerta automática a las autoridades. |
| Responsabilidad legal | Responsabilidad limitada bajo las leyes actuales de plataformas. | Potencial responsabilidad legal por no informar de delitos evitables. |
Para el sector de la IA en general, el incidente de Tumbler Ridge representa un estudio de caso crítico sobre las limitaciones de los algoritmos de detección de abusos y la moderación humana. Aunque los sistemas de OpenAI identificaron con éxito la violación de la política, el fallo residió en la transición de la moderación de contenidos a la intervención en el mundo real.
Esta desconexión resalta un desafío significativo para Creati.ai y otras partes interesadas en el campo: cómo equilibrar la privacidad del usuario y la libertad de expresión con el imperativo de prevenir daños. Si Canadá decide imponer un "deber de informar" a las empresas de IA, podría sentar un precedente que otras naciones, incluidos el Reino Unido y los miembros de la Unión Europea, podrían seguir.
El resultado de la reunión del martes entre el ministro Solomon y el equipo de seguridad de OpenAI probablemente determinará la trayectoria de la próxima legislación sobre IA en Canadá. Lo que es seguro es que la era del cumplimiento de seguridad puramente voluntario para los proveedores de modelos fundacionales está llegando a su fin. A medida que la tecnología se integra más en la vida diaria, la demanda de rendición de cuentas cuando esos sistemas detectan un peligro —pero no actúan ante él— no hará sino intensificarse.