
Dans un geste qui signale un tournant potentiel pour la réglementation mondiale de l'Intelligence artificielle(Artificial Intelligence), le ministre canadien de l'IA et de l'Innovation numérique, Evan Solomon, a convoqué la haute direction de la sécurité d'OpenAI à Ottawa. La réunion d'urgence, prévue mardi, fait suite à la révélation que le géant technologique avait signalé le compte ChatGPT du tireur de l'école de Tumbler Ridge pour contenu violent huit mois avant l'attaque, mais n'avait pas signalé l'utilisateur aux forces de l'ordre.
La convocation intervient dans une vague de deuil et de colère nationale après que Jesse Van Rootselaar, 18 ans, a tué huit personnes à Tumbler Ridge, en Colombie-Britannique. Les victimes comprenaient sa mère et son demi-frère, ainsi qu'une aide-enseignante et cinq élèves d'une école locale. L'incident a relancé le débat sur la responsabilité des entreprises technologiques de surveiller et de signaler les menaces potentielles détectées par leurs systèmes.
La controverse se concentre sur la gestion interne par OpenAI de l'activité du compte de Van Rootselaar en juin 2025. Selon les déclarations de l'entreprise, les interactions de l'utilisateur avec ChatGPT ont été signalées par les systèmes de détection d'abus pour « favoriser des activités violentes ». Bien qu'OpenAI ait pris la mesure de bannir le compte pour violation de ses politiques d'utilisation, elle n'a pas transmis l'affaire à la Gendarmerie royale du Canada (RCMP).
OpenAI a déclaré que son examen interne de l'époque avait conclu que l'activité du compte ne respectait pas le seuil requis pour un signalement aux forces de l'ordre. La politique de l'entreprise stipule que les autorités ne sont informées que s'il existe un « risque crédible et imminent » de dommage physique grave. Ce n'est qu'après le massacre du 10 février 2026 que les employés d'OpenAI, réalisant le lien, ont contacté la RCMP avec des informations concernant l'historique numérique du tireur.
Le premier ministre de la Colombie-Britannique, David Eby, a exprimé une profonde frustration face au processus de prise de décision de l'entreprise. « De l'extérieur, il semble qu'OpenAI ait eu l'occasion de prévenir cette tragédie, d'empêcher cette perte de vie horrible », a déclaré Eby aux journalistes. « Je suis en colère à ce sujet. »
Le ministre Solomon a clairement indiqué que le statu quo concernant l'autorégulation de l'IA est sous surveillance étroite. La réunion à Ottawa devrait se concentrer lourdement sur les critères spécifiques qu'OpenAI utilise pour déterminer quand un utilisateur représente une menace physique.
« Les Canadiens attendent, avant tout, que leurs enfants soient particulièrement en sécurité et que ces organisations agissent de manière responsable », a déclaré Solomon lundi. Il a indiqué que bien qu'il ne s'engagerait pas préventivement sur une législation spécifique, « toutes les options sont sur la table », y compris des cadres réglementaires plus stricts pour les chatbots d'IA et les modèles génératifs.
Le cœur de la discussion portera probablement sur la norme du « risque imminent ». Les critiques soutiennent que ce seuil est trop élevé pour les systèmes d'IA qui peuvent détecter les premiers signes de radicalisation ou d'idéation violente bien avant qu'un plan spécifique ne soit opérationnalisé.
Les experts juridiques et éthiques soulignent cet incident comme une preuve que les entreprises d'IA devraient être tenues à des normes similaires à celles des professionnels de la santé et des éducateurs. Alan Mackworth, professeur émérite à l'Université de la Colombie-Britannique spécialisé dans la sécurité de l'IA, a suggéré qu'un « devoir de signaler » légal devrait être étendu aux fournisseurs de technologies.
Actuellement, les professionnels comme les médecins et les enseignants sont légalement tenus de signaler les soupçons de préjudice envers les mineurs ou de violence imminente. Le vide législatif concernant les plateformes d'IA permet aux entreprises de donner la priorité à la vie privée des utilisateurs ou à la politique interne plutôt qu'à la sécurité publique, un vide que le gouvernement canadien semble désormais prêt à combler.
Le tableau ci-dessous présente la disparité entre les pratiques actuelles de l'industrie et les attentes réglementaires désormais exprimées par les responsables canadiens.
| Caractéristique | Pratique actuelle de l'industrie (autorégulation) | Attentes réglementaires proposées (Canada) |
|---|---|---|
| Seuil de risque | « Risque imminent et crédible » de dommage physique requis pour le signalement. | « Soupçon raisonnable » de violence ou de préjudice potentiel. |
| Mécanisme de signalement | Signalement volontaire aux forces de l'ordre basé sur un examen interne. | Signalement obligatoire (devoir de signaler) pour des catégories de menaces spécifiques. |
| Action sur le compte | Bannissement ou suspension du service ; les données utilisateur sont souvent conservées en interne. | Suspension immédiate accompagnée d'un signalement automatique aux autorités. |
| Responsabilité | Responsabilité limitée en vertu des lois actuelles sur les plateformes. | Responsabilité juridique potentielle pour défaut de signalement de crimes évitables. |
Pour le secteur plus large de l'IA, l'incident de Tumbler Ridge représente une étude de cas critique sur les limites des algorithmes de détection d'abus et de la modération humaine. Bien que les systèmes d'OpenAI aient identifié avec succès la violation de la politique, l'échec résidait dans la transition de la modération de contenu à l'intervention dans le monde réel.
Ce décalage met en évidence un défi important pour Creati.ai et les autres parties prenantes du domaine : comment équilibrer la vie privée des utilisateurs et la liberté d'expression avec l'impératif de prévenir les dommages. Si le Canada décide d'appliquer un « devoir de signaler » pour les entreprises d'IA, cela pourrait créer un précédent que d'autres nations, y compris le Royaume-Uni et les membres de l'Union européenne, pourraient suivre.
L'issue de la réunion de mardi entre le ministre Solomon et l'équipe de sécurité d'OpenAI déterminera probablement la trajectoire de la future législation canadienne sur l'IA. Ce qui est certain, c'est que l'ère de la conformité de sécurité purement volontaire pour les fournisseurs de modèles de base touche à sa fin. À mesure que la technologie s'intègre davantage dans la vie quotidienne, la demande de responsabilité lorsque ces systèmes détectent — mais ne parviennent pas à agir sur — un danger ne fera que s'intensifier.