
영국에서 인공지능에 대한 규제 환경을 근본적으로 변화시키는 단호한 조치로, 키어 스타머(Keir Starmer) 총리는 OpenAI의 ChatGPT와 xAI의 Grok과 같은 시장 선두주자를 포함한 모든 AI 챗봇 제공업체가 이제 **온라인 안전법(Online Safety Act)**을 엄격히 준수해야 한다고 발표했습니다.
오늘 아침 다우닝가에서 발표된 이번 성명은 이전에 독립형 생성형 AI(Generative AI) 모델이 기존 소셜 미디어 플랫폼보다 적은 감독 하에 운영될 수 있도록 허용했던 규제 "사각지대"의 종식을 의미합니다. 정부의 이번 단속은 AI가 생성한 딥페이크(Deepfakes)와 부적절한 자료의 확산에 대한 대중의 분노가 커짐에 따라, 유해한 콘텐츠로부터 어린이를 보호하는 것을 명시적인 목표로 하고 있습니다.
수년 동안 AI 규제에 대한 논의는 혁신과 안전 사이의 균형에 집중되어 왔습니다. 오늘 영국 정부는 저울의 추를 안전 쪽으로 확고히 기울였습니다. 피터 카일(Peter Kyle) 기술부 장관의 지지를 받는 스타머 총리는 기초 모델(Foundational models)에 대한 자율 규제 시대가 끝났음을 선언했습니다.
"기술은 정말 빠르게 움직이고 있으며, 법은 이를 따라잡아야 합니다"라고 스타머 총리는 연설에서 밝혔습니다. "어떤 플랫폼도 프리패스를 받을 수 없습니다. 오늘 우리는 어린이를 위험에 빠뜨리는 허점을 메우고 추가 조치를 위한 토대를 마련하고 있습니다."
이번 새로운 의무의 핵심은 **2023년 온라인 안전법(Online Safety Act)**의 해석과 관련이 있습니다. 원래 페이스북이나 X와 같은 "사용자 간" 서비스와 검색 엔진을 규제하기 위해 설계된 이 법이, 단순히 콘텐츠를 호스팅하는 것이 아니라 생성하는 독립형 AI 챗봇에 적용되는지 여부는 모호했습니다. 이러한 모호성은 챗봇이 동일한 자료를 호스팅하는 소셜 네트워크와 같은 법적 책임을 지지 않고 유해한 콘텐츠를 생성할 수 있는 허점을 효과적으로 만들어냈습니다.
정부는 이제 영국 사용자에게 서비스를 제공하는 모든 AI 챗봇 제공업체가 해당 법의 불법 콘텐츠 의무 범위에 포함된다고 명확히 했습니다. 이는 OpenAI, Google, xAI와 같은 기업이 아동 성학대물(CSAM), 비동의 성적 이미지, 자해를 조장하는 콘텐츠를 포함하여 자신의 모델이 불법 콘텐츠를 생성하는 것을 방지할 법적 책임이 있음을 의미합니다.
규제는 업계 전체에 영향을 미치지만, 이러한 급격한 정책 변화의 즉각적인 촉매제는 xAI의 Grok 챗봇을 둘러싼 최근의 논란으로 보입니다. 이달 초, 해당 도구가 실존 여성과 아동의 비동의 성적 이미지(딥페이크)를 생성하는 데 사용되었다는 보고가 잇따르면서 전 세계적인 반발을 불러일으켰습니다.
이러한 프롬프트를 거부하기 위해 엄격한 "가드레일"을 구현한 경쟁사들과 달리, Grok의 "재미 모드(Fun mode)"와 느슨한 콘텐츠 필터는 사용자가 안전 표준을 쉽게 우회할 수 있도록 허용했습니다. 영국 정부의 이번 조치는 이러한 취약점에 대한 무관용 원칙을 강조합니다.
피터 카일 기술부 장관은 이 점을 강조하며 "우리는 가정에 필요한 조치를 취하기 위해 기다리지 않을 것입니다. 그것이 바로 제가 영국 법과 가치를 무시한 Grok과 일론 머스크(Elon Musk)에 맞선 이유입니다"라고 말했습니다.
미준수(Compliance)에 대한 대가는 가혹합니다. 시행된 규칙에 따라 Ofcom(영국 통신 규제 기관)은 **해당 기업의 글로벌 연간 매출의 최대 10%**까지 벌금을 부과할 권한을 갖게 되며, 이는 Google이나 Microsoft와 같은 거대 기술 기업의 경우 수십억 달러에 달할 수 있습니다.
금전적 처벌 외에도 정부는 영국 내에서 미준수 서비스에 대한 접속을 완전히 차단하겠다고 위협했습니다. 고위 경영진 또한 정보 요청에 협조하지 않거나 안전 의무를 소홀히 할 경우 형사 책임을 질 수 있습니다.
AI 기업은 새로운 의무를 준수하기 위해 즉시 다음을 시행해야 합니다.
다음 표는 영국 내 AI 챗봇(AI Chatbots)에 대한 규제 환경이 즉시 어떻게 변경되었는지 보여줍니다.
영국 내 AI 챗봇의 규제 상태
| 특징 | 이전 상태(의무화 전) | 새로운 의무(온라인 안전법 적용) |
|---|---|---|
| 법적 분류 | 모호함 / "사각지대" | 안전 의무 범위에 명확히 포함 |
| 콘텐츠 책임 | 제한적(주로 도구 제공자로 간주됨) | 생성된 불법 콘텐츠에 대한 엄격한 책임 |
| 연령 확인 | 자발적 / 자율 규제 | 고위험 서비스에 대해 필수적 |
| 처벌 메커니즘 | 평판 손상 | 글로벌 매출의 최대 10% 벌금 |
| 규제 기관 권한 | 제한적인 감독 | Ofcom의 전면적인 집행 권한 |
이번 발표는 AI 업계에 큰 충격을 주었습니다. OpenAI(ChatGPT 제작사)와 Anthropic(Claude)과 같은 주요 기업들이 오랫동안 규제를 옹호해 왔지만, 이번 시행의 속도와 엄격함은 상당한 기술적 장벽을 제시합니다.
주요 과제는 대규모 언어 모델(LLMs)의 비결정적 특성에 있습니다. 스캔하고 삭제할 수 있는 정적 파일인 소셜 미디어 게시물과 달리, AI 응답은 즉석에서 생성됩니다. 모델이 특정 유형의 유해한 출력물을 절대 생성하지 않도록 보장하는 것은 기술적으로 어려우며, 종종 모델의 유용성을 본의 아니게 저하시킬 수 있는 "탈옥(Jailbreak)" 패치를 요구합니다.
기술 업계 내의 비판론자들은 생성된 콘텐츠에 대한 엄격한 책임이 기업들로 하여금 영국 시장을 위해 모델을 "기능 약화(Lobotomize)"하도록 강요하여 쓸모없을 정도로 지나치게 신중하게 만들 수 있다고 경고합니다. 그러나 NSPCC를 포함한 아동 안전 옹호론자들은 이번 조치를 디지털 네이티브를 위한 오랫동안 기다려온 보호책이라며 환영했습니다.
영국의 이번 조치는 비록 동종 국가들과는 다른 접근 방식을 취하고 있지만, 글로벌 AI 규제의 최전선에 서게 되었습니다.
영국은 수년이 걸리는 새로운 기본법을 제정하기보다 기존의 온라인 안전법을 활용함으로써 EU보다 빠르게 행동할 수 있음을 입증했습니다. 이러한 "민첩한 규제" 방식은 생성형 AI의 급격한 부상에 대처하는 다른 국가들에게 선례가 될 수 있습니다.
영국에서 생성형 AI의 "서부 개척 시대"는 공식적으로 끝났습니다. 기업들이 안전 프로토콜을 점검하기 위해 분주하게 움직이는 가운데, 다우닝가의 메시지는 명확합니다. 사용자, 특히 어린이의 안전은 나중에 고려할 대상이 아니라 코드에 내재되어야 한다는 것입니다. Creati.ai와 더 넓은 개발자 커뮤니티에 있어, 이는 **준수 엔지니어링(Compliance engineering)**이 **프롬프트 엔지니어링(Prompt engineering)**만큼이나 중요해지는 전환점이 될 것입니다.