
In einem Schritt, der einen potenziellen Wendepunkt für die globale KI-Regulierung signalisiert, hat Kanadas Minister für Künstliche Intelligenz und digitale Innovation (Minister of Artificial Intelligence and Digital Innovation), Evan Solomon, die Führungsspitze für Sicherheit von OpenAI nach Ottawa vorgeladen. Das für Dienstag geplante dringende Treffen folgt auf die Enthüllung, dass der Technologie-Riese das ChatGPT-Konto der Schützin von Tumbler Ridge acht Monate vor dem Angriff wegen gewalttätiger Inhalte markiert hatte, es jedoch versäumte, die Nutzerin den Strafverfolgungsbehörden zu melden.
Die Vorladung erfolgt inmitten einer Welle nationaler Trauer und Wut, nachdem die 18-jährige Jesse Van Rootselaar acht Menschen in Tumbler Ridge, British Columbia, getötet hat. Zu den Opfern gehörten ihre Mutter und ihr Stiefbruder sowie ein Lehrassistent und fünf Schüler einer örtlichen Schule. Der Vorfall hat die Debatte über die Verantwortung von Technologieunternehmen neu entfacht, potenzielle Bedrohungen, die von ihren Systemen erkannt werden, zu überwachen und zu melden.
Die Kontroverse konzentriert sich auf den internen Umgang von OpenAI mit den Kontoaktivitäten von Van Rootselaar im Juni 2025. Laut Unternehmensangaben wurden die Interaktionen der Nutzerin mit ChatGPT von Systemen zur Erkennung von Missbrauch wegen der „Förderung gewalttätiger Aktivitäten“ markiert. Während OpenAI den Schritt unternahm, das Konto wegen Verstoßes gegen seine Nutzungsrichtlinien zu sperren, leitete es die Angelegenheit nicht an die Königlich Kanadische Berittene Polizei (Royal Canadian Mounted Police, RCMP) weiter.
OpenAI hat erklärt, dass seine interne Überprüfung zu diesem Zeitpunkt zu dem Schluss kam, dass die Kontoaktivität nicht die Schwelle für eine Weiterleitung an die Strafverfolgungsbehörden erreichte. Die Richtlinie des Unternehmens schreibt vor, dass Behörden nur benachrichtigt werden, wenn ein „glaubwürdiges und unmittelbar bevorstehendes Risiko“ (Credible and Imminent Risk) für schweren körperlichen Schaden besteht. Erst nach dem Massaker vom 10. Februar 2026 wandten sich Mitarbeiter von OpenAI, die den Zusammenhang erkannten, mit Informationen zur digitalen Geschichte der Schützin an die RCMP.
Der Premierminister von British Columbia, David Eby, drückte tiefe Frustration über den Entscheidungsprozess des Unternehmens aus. „Von außen betrachtet sieht es so aus, als hätte OpenAI die Möglichkeit gehabt, diese Tragödie zu verhindern, diesen schrecklichen Verlust an Menschenleben zu verhindern“, sagte Eby vor Reportern. „Darüber bin ich wütend.“
Minister Solomon hat deutlich gemacht, dass der Status quo der KI-Selbstregulierung unter strenger Beobachtung steht. Das Treffen in Ottawa wird sich voraussichtlich stark auf die spezifischen Kriterien konzentrieren, die OpenAI verwendet, um zu bestimmen, wann ein Nutzer eine physische Bedrohung darstellt.
„Die Kanadier erwarten vor allem, dass insbesondere ihre Kinder geschützt werden und dass diese Organisationen verantwortungsbewusst handeln“, erklärte Solomon am Montag. Er deutete an, dass er sich zwar nicht vorzeitig auf eine spezifische Gesetzgebung festlegen werde, aber „alle Optionen auf dem Tisch liegen“, einschließlich strengerer regulatorischer Rahmenbedingungen für KI-Chatbots und generative Modelle (Generative Models).
Der Kern der Diskussion wird sich wahrscheinlich um den Standard des „unmittelbaren Risikos“ (Imminent Risk) drehen. Kritiker argumentieren, dass diese Schwelle für KI-Systeme zu hoch sei, da diese frühe Anzeichen von Radikalisierung oder gewalttätigen Vorstellungen erkennen könnten, lange bevor ein spezifischer Plan in die Tat umgesetzt wird.
Rechts- und Ethikexperten weisen auf diesen Vorfall als Beweis dafür hin, dass KI-Unternehmen an ähnlichen Standards wie Angehörige der Gesundheitsberufe und Pädagogen gemessen werden sollten. Alan Mackworth, ein auf KI-Sicherheit spezialisierter emeritierter Professor an der University of British Columbia, schlug vor, dass eine gesetzliche „Meldepflicht“ (Duty to Report) auf Technologieanbieter ausgeweitet werden sollte.
Derzeit sind Fachkräfte wie Ärzte und Lehrer gesetzlich verpflichtet, vermutete Schäden an Minderjährigen oder unmittelbar bevorstehende Gewalt zu melden. Die Gesetzeslücke bei KI-Plattformen ermöglicht es Unternehmen, den Datenschutz der Nutzer oder interne Richtlinien über die öffentliche Sicherheit zu stellen – eine Lücke, die die kanadische Regierung nun offenbar zu schließen gedenkt.
Die folgende Tabelle skizziert die Diskrepanz zwischen den aktuellen Branchenpraktiken und den regulatorischen Erwartungen, die nun von kanadischen Beamten geäußert werden.
| Merkmal | Aktuelle Branchenpraxis (Selbstregulierung) | Vorgeschlagene regulatorische Erwartungen (Kanada) |
|---|---|---|
| Risikoschwelle | „Unmittelbares und glaubwürdiges Risiko“ für körperlichen Schaden für Meldung erforderlich. | „Angemessener Verdacht“ auf potenzielle Gewalt oder Schaden. |
| Meldemechanismus | Freiwillige Weiterleitung an Strafverfolgungsbehörden basierend auf interner Prüfung. | Meldepflicht (Duty to Report) für spezifische Bedrohungskategorien. |
| Kontomaßnahme | Dienstsperre oder Suspendierung; Nutzerdaten werden oft intern gespeichert. | Sofortige Suspendierung, begleitet von einer automatischen Meldung an die Behörden. |
| Haftung | Begrenzte Haftung nach aktuellen Plattformgesetzen. | Potenzielle gesetzliche Haftung für das Versäumnis, vermeidbare Verbrechen zu melden. |
Für den breiteren KI-Sektor stellt der Vorfall in Tumbler Ridge eine kritische Fallstudie zu den Grenzen von Algorithmen zur Missbrauchserkennung und menschlicher Moderation dar. Während die Systeme von OpenAI den Richtlinienverstoß erfolgreich identifizierten, lag das Versäumnis beim Übergang von der Inhaltsmoderation zum realen Eingreifen.
Diese Diskrepanz verdeutlicht eine erhebliche Herausforderung für Creati.ai und andere Akteure auf diesem Gebiet: Wie man den Datenschutz der Nutzer und die Meinungsfreiheit mit der Notwendigkeit zur Schadensvermeidung in Einklang bringt. Wenn Kanada dazu übergeht, eine „Meldepflicht“ für KI-Unternehmen durchzusetzen, könnte dies einen Präzedenzfall schaffen, dem andere Nationen, einschließlich des Vereinigten Königreichs und der Mitglieder der Europäischen Union, folgen könnten.
Das Ergebnis des Treffens am Dienstag zwischen Minister Solomon und dem Sicherheitsteam von OpenAI wird wahrscheinlich die Richtung der kommenden kanadischen KI-Gesetzgebung bestimmen. Sicher ist, dass die Ära der rein freiwilligen Sicherheitseinhaltung für Anbieter von Basismodellen (Foundational Models) zu Ende geht. Da die Technologie immer stärker in das tägliche Leben integriert wird, wird die Forderung nach Rechenschaftspflicht, wenn diese Systeme Gefahren erkennen – aber nicht darauf reagieren –, nur noch zunehmen.