
몇 달 전 영국 정부가 OpenAI와 세간의 이목을 끄는 양해각서(MoU, memorandum of understanding)를 체결했을 때, 이 발표는 국가의 디지털 미래를 위한 획기적인 순간으로 묘사되었습니다. 장관들은 이 파트너십을 "사회의 가장 큰 과제를 해결"하고 인공지능(AI, Artificial Intelligence)을 활용해 공공 서비스 제공 방식을 혁신할 촉매제라고 홍보했습니다. 하지만 8개월이 지나 열기가 식으면서 냉혹한 현실이 드러났습니다. 정부가 공공 부문 전반에 걸쳐 OpenAI 기술에 대한 실질적인 시험을 아직 단 한 건도 실시하지 않았다는 사실입니다.
AI 거버넌스와 도입에 있어 스스로를 글로벌 리더라고 반복해서 주장해 온 행정부로서는, 이러한 진전의 부족이 뼈아픈 질문을 던지게 합니다. 영국의 AI 통합 현황을 살펴보면, AI 주도 개혁이라는 정치적 수사와 정부 부처의 운영 현실 사이에 상당한 괴리가 있음이 분명해집니다.
이러한 정밀 조사는 AI 컨설팅 업체인 Valliance가 제출한 정보 공개 청구(FoI, Freedom of Information)에서 시작되었습니다. 이 청구는 앞서 언급한 양해각서에 따라 수행된 시험에 대한 명확한 답변을 요구했습니다. 과학혁신기술부(DSIT, Department for Science, Innovation and Technology)의 답변은 솔직했습니다. 해당 부처는 그러한 시험에 관한 정보를 보유하고 있지 않으며, 협약에 따라 어떠한 테스트도 수행하지 않았다는 것이었습니다.
정부는 법무부(MoJ, Ministry of Justice)의 제한적인 ChatGPT 사용을 진전의 표시로 내세웠지만, 업계 관찰자들은 이것이 약속했던 바에 비하면 겉핥기 수준에 불과하다고 주장합니다. MoU의 목적은 훨씬 더 나아가 정부와 민간 부문 전체에 고급 모델을 배치할 기회를 식별하는 것이었습니다. 대신 비평가들은 정부의 접근 방식이 기술적 병목 현상보다는 "의지의 결여"로 특징지어진다고 지적합니다.
다음 표는 정부의 AI 파트너십에서 명시된 목표와 현재까지 기록된 진전 사이의 불일치를 보여줍니다.
| 양상 | 명시된 목표 | 현재 상태 |
|---|---|---|
| 전략적 AI 배치 | 정부 기능 전반에 고급 AI 모델 배치 | 법무부(MoJ) 내 고립되고 소규모인 ChatGPT 사용으로 제한됨 |
| 인프라 목표 | "Stargate UK" 구축 및 8,000개의 Nvidia 칩 배치 | 진전 중단, 완료 기한에 대한 상당한 의구심 존재 |
| 책임성 | 투명하고 측정 가능한 공공 이익 수립 | 명확한 지표나 표준화된 조달 감독이 부족함 |
| 협력 연구 | 안전 및 혁신에 대한 활발하고 지속적인 협력 | 주로 비실험적인 안전 연구로 제한됨 |
가시적인 진전이 부족한 것은 단순한 운영상의 실패가 아닙니다. 이는 정부가 프런티어 기술(Frontier technology)을 어떻게 조달하고 관리해야 하는지에 대한 핵심적인 문제와 맞닿아 있습니다. 에이다 러브레이스 연구소(Ada Lovelace Institute)와 기타 정책 싱크탱크의 전문가들은 이러한 파트너십의 "자발적" 성격에 대해 타당한 우려를 제기해 왔습니다.
공공 입찰, 책임성, 투명성이라는 엄격한 규칙에 묶여 있는 전통적인 조달 프로세스와 달리, 이러한 고위급 MoU는 종종 규제의 회색 지대에서 운영됩니다. 표준 프로토콜을 우회함으로써, 정부는 공공 서비스가 특정 독점 제품에 과도하게 의존하게 되는 벤더 종속(Vendor lock-in) 시나리오를 만들 위험이 있습니다. 이는 공공 부문 배치에 필요한 엄격한 조사를 거치지 않은 상태에서 발생할 수 있는 문제입니다.
나아가 대중은 점점 더 경계심을 늦추지 않고 있습니다. 여론 조사에 따르면 대다수의 시민은 정부가 대중을 보호해야 할 근본적인 필요성보다 AI 부문의 이익을 우선시할 것을 우려하고 있습니다. 정부가 OpenAI, Google DeepMind, Anthropic과 같은 거대 IT 기업과 협약을 체결할 때는 이러한 거래가 공공 생활의 직접적인 개선을 가져올 것이라는 암묵적인 약속이 담겨 있습니다. 그러한 결과가 나타나지 않을 때, AI 전환을 관리하는 책무를 맡은 바로 그 기관에 대한 신뢰는 무너집니다.
양해각서에서 실행으로 옮기기를 주저하는 것—종종 안전에 대한 신중한 접근으로 설명됨—은 사실 역효과를 낼 수 있습니다. 영국 AI 안전 연구소(UK AI Safety Institute)에서 수행하는 것과 같은 엄격한 안전 테스트는 필수적이지만, 이것이 행정적 마비의 핑계가 되어서는 안 됩니다.
공공 부문 AI 도입은 단순히 모델을 선택하는 것만이 아닙니다. 디지털 인프라를 구축하고, 인력을 재교육하며, AI 통합을 처리하기 위해 관료적 프로세스를 재설계하는 것입니다. 의미 있는 시험을 시작하지 못함으로써, 영국 정부는 비판적인 "실행을 통한 학습" 기회를 놓치고 있습니다. 지연되는 매달은 공무원들이 프롬프트 엔지니어링(Prompt engineering)의 미묘한 차이, AI 워크플로에서의 데이터 프라이버시, 알고리즘 의사 결정의 윤리적 관리에 익숙해지지 못한 채로 남게 되는 시간입니다.
현재의 교착 상태를 벗어나기 위해 영국 정부는 광범위하고 구속력 없는 협약에서 명확하고 성과 중심적인 전략으로 전환해야 합니다. 신뢰를 회복하고 진정한 혁신을 촉진하기 위해서는 다음과 같은 단계가 필수적입니다.
Creati.ai가 정책과 혁신의 교차점을 계속 모니터링하면서 확인한 바와 같이, 계약을 체결하는 것은 첫 걸음에 불과합니다. 정부 AI 전략의 진정한 시험대는 보도 자료나 MoU가 아니라, 이러한 기술을 국가의 일상 운영에 통합하는 까다롭고 세부적이며 때로는 어려운 작업에 있습니다. 영국 정부가 서명대에서 시범 테스트 현장으로 이동하려는 의지를 보여줄 때까지, "AI 주도 공공 서비스"에 대한 포부는 현재로서는 대체로 열망에 머물러 있을 것입니다.