
글로벌 AI 규제의 잠재적 전환점을 시사하는 행보로, 캐나다의 인공지능 및 디지털 혁신부 장관(Minister of Artificial Intelligence and Digital Innovation)인 에반 솔로몬(Evan Solomon)이 OpenAI의 고위 안전 책임자들을 오타와로 소환했습니다. 화요일로 예정된 이 긴급 회의는, 이 기술 거대 기업이 텀블러 리지 학교 총기 난사범의 ChatGPT 계정을 공격 8개월 전에 폭력적인 콘텐츠로 플래그를 지정했음에도 불구하고 해당 사용자를 법 집행 기관에 신고하지 않았다는 사실이 밝혀진 데 따른 것입니다.
이번 소환은 브리티시 컬럼비아주 텀블러 리지에서 18세의 제시 반 루첼라르(Jesse Van Rootselaar)가 8명을 살해한 후 전국적인 슬픔과 분노가 일고 있는 가운데 이루어졌습니다. 희생자 중에는 그녀의 어머니와 의붓형제뿐만 아니라 지역 학교의 보조 교사와 학생 5명이 포함되었습니다. 이 사건은 시스템에 의해 감지된 잠재적 위협을 모니터링하고 보고해야 하는 기술 기업의 책임에 대한 논쟁에 다시 불을 지폈습니다.
논란은 2025년 6월 반 루첼라르의 계정 활동에 대한 OpenAI의 내부 처리에 집중되어 있습니다. 회사의 발표에 따르면, 해당 사용자와 ChatGPT의 상호작용은 남용 탐지 시스템에 의해 "폭력 활동 조장"으로 플래그가 지정되었습니다. OpenAI는 사용 정책 위반을 이유로 계정을 차단하는 조치를 취했지만, 이 사안을 캐나다 왕립 기마경찰대(RCMP)로 확대 보고하지는 않았습니다.
OpenAI는 당시 내부 검토 결과 계정 활동이 법 집행 기관에 알릴 만한 임계값에 도달하지 않았다고 결론지었다고 밝혔습니다. 회사의 정책에 따르면 신체에 심각한 위해를 가할 "신뢰할 수 있고 임박한 위험"이 있는 경우에만 당국에 통보됩니다. 2026년 2월 10일 대학살이 일어난 후에야 OpenAI 직원들은 연관성을 깨닫고 총격범의 디지털 기록에 관한 정보를 가지고 RCMP에 연락했습니다.
브리티시 컬럼비아 주지사 데이비드 이비(David Eby)는 회사의 의사 결정 과정에 대해 깊은 좌절감을 표했습니다. 이비 주지사는 기자들에게 "외부에서 보기에 OpenAI는 이 비극을 막고, 이 끔찍한 인명 피해를 막을 기회가 있었던 것으로 보입니다"라며 "저는 그 점에 대해 화가 납니다"라고 말했습니다.
솔로몬 장관은 AI 자율 규제(AI self-regulation)에 관한 현 상태가 엄격한 조사를 받고 있음을 분명히 했습니다. 오타와에서의 회의는 OpenAI가 사용자가 신체적 위협을 가하는 시점을 결정하기 위해 사용하는 구체적인 기준에 크게 집중될 것으로 예상됩니다.
솔로몬 장관은 월요일에 "캐나다인들은 무엇보다도 특히 자신의 자녀들이 안전하게 보호되고 이러한 조직들이 책임감 있는 방식으로 행동하기를 기대합니다"라고 말했습니다. 그는 특정 법안을 미리 약속하지는 않겠지만, AI 챗봇과 생성형 모델(Generative models)에 대한 더 엄격한 규제 프레임워크를 포함하여 "모든 옵션이 테이블 위에 있다"고 언급했습니다.
토론의 핵심은 아마도 "임박한 위험" 기준을 중심으로 전개될 것입니다. 비평가들은 이 임계값이 구체적인 계획이 실행되기 훨씬 전에 급진화나 폭력적 관념화의 초기 징후를 감지할 수 있는 AI 시스템에게는 너무 높다고 주장합니다.
법률 및 윤리 전문가들은 이번 사건을 AI 기업들이 의료 전문가나 교육자와 유사한 기준을 준수해야 한다는 증거로 지목하고 있습니다. AI 안전을 전문으로 하는 브리티시 컬럼비아 대학교의 명예 교수인 앨런 맥워스(Alan Mackworth)는 법적인 "신고 의무(Duty to report)"가 기술 제공업체로 확대되어야 한다고 제안했습니다.
현재 의사와 교사 같은 전문가들은 미성년자에 대한 위해 의심이나 임박한 폭력을 보고할 법적 의무가 있습니다. AI 플랫폼에 관한 입법 공백은 기업들이 공공 안전보다 사용자 개인정보 보호나 내부 정책을 우선시할 수 있게 하며, 캐나다 정부는 이제 이 공백을 메울 준비가 된 것으로 보입니다.
아래 표는 현재 업계 관행과 캐나다 관리들이 목소리를 높이고 있는 규제 기대치 간의 차이를 보여줍니다.
| 특징 | 현재 업계 관행 (자율 규제) | 제안된 규제 기대치 (캐나다) |
|---|---|---|
| 위험 임계값 | 보고를 위해 신체적 위해의 "임박하고 신뢰할 수 있는 위험"이 필요함. | 잠재적 폭력이나 위해에 대한 "합리적 의심". |
| 보고 메커니즘 | 내부 검토에 근거한 법 집행 기관으로의 자발적 회부. | 특정 위협 범주에 대한 의무 보고(신고 의무). |
| 계정 조치 | 서비스 차단 또는 정지; 사용자 데이터는 종종 내부적으로 보유됨. | 당국에 대한 자동 플래그와 함께 즉각적인 정지. |
| 법적 책임 | 현재 플랫폼 법률에 따른 제한적 책임. | 예방 가능한 범죄를 보고하지 못한 것에 대한 잠재적 법적 책임. |
더 넓은 AI 부문에서 텀블러 리지 사건은 남용 탐지 알고리즘과 인간 중재의 한계를 보여주는 중요한 사례 연구가 됩니다. OpenAI의 시스템은 정책 위반을 성공적으로 식별했지만, 콘텐츠 중재에서 현실 세계의 개입으로 전환하는 과정에서 실패가 발생했습니다.
이러한 단절은 Creati.ai 및 이 분야의 다른 이해관계자들에게 중요한 과제를 시사합니다. 즉, 사용자 개인정보 보호 및 표현의 자유와 위해 예방이라는 절박한 과제 사이에서 어떻게 균형을 맞출 것인가 하는 점입니다. 만약 캐나다가 AI 기업에 대한 "신고 의무"를 집행하기 위해 움직인다면, 이는 영국과 유럽 연합 회원국을 포함한 다른 국가들이 따를 수 있는 선례가 될 수 있습니다.
솔로몬 장관과 OpenAI의 안전 팀 간의 화요일 회의 결과는 아마도 캐나다의 향후 AI 입법 궤적을 결정할 것입니다. 확실한 것은 파운데이션 모델(Foundational model) 제공업체들을 위한 순수 자율 안전 준수 시대가 저물고 있다는 것입니다. 기술이 일상생활에 더 통합됨에 따라, 시스템이 위험을 감지했음에도 불구하고 조치를 취하지 않았을 때의 책임에 대한 요구는 더욱 거세질 것입니다.