
이번 주 뉴델리에서 열린 **AI 임팩트 서밋 2026(AI Impact Summit 2026)**이 역사적이면서도 논쟁적인 합의로 마무리되며 인공지능에 관한 글로벌 담론이 결정적인 전환점을 맞이했습니다. 미국, 중국, 러시아, 유럽연합을 포함한 88개국이 보기 드문 외교적 결속을 보여주며 **뉴델리 AI 임팩트 선언(New Delhi Declaration on AI Impact)**을 지지했습니다. 상징적인 바라트 만다팜에서 개최된 이번 서밋은 지난 몇 년간의 안전 중심적 수사에서 벗어나 글로벌 사우스(Global South)가 주도하는 개발 중심 의제로의 전환을 알렸습니다.
이 선언은 인도를 "AI 보유국"과 "비보유국" 사이의 가교로 자리매김하게 한 외교적 승리이지만, 집행 가능성에 대해서는 논란을 불러일으켰습니다. 비판론자들은 광범위한 합의를 추구하는 과정에서 구속력 있는 안전 서약을 희생하고 자발적인 가이드라인에 만족했다고 주장하며, 일부 전문가는 이것이 프런티어 모델(Frontier models)의 위험을 억제하기에 충분하지 않을 수 있다고 우려합니다.
서밋의 핵심 주제인 "모두를 위한 AI(AI for All)"는 산스크리트어 원칙인 사르바잔 히타야(Sarvajan Hitaya), 사르바잔 수카야(Sarvajan Sukhaya) (모두의 복지, 모두의 행복)에 기반을 두고 있습니다. 이 철학은 AI 기술의 "민주적 확산(Democratic Diffusion)"을 강조하는 선언문 최종안 전반에 스며들었습니다. 실존적 위험을 우선시했던 블레치리 파크(Bletchley Park, 2023) 및 서울(2024) 서밋과 달리, 뉴델리는 접근성에 초점을 맞추었습니다.
나렌드라 모디(Narendra Modi) 총리 정부는 개발도상국에 AI 혜택을 전달하는 수단으로서 디지털 공공 인프라(Digital Public Infrastructure)(DPI)를 포함시키기 위해 성공적으로 로비를 펼쳤습니다. 선언문은 "컴퓨팅 격차"를 줄이고 글로벌 사우스가 단순히 AI 기술의 소비자에 그치지 않고 개발의 능동적인 참여자가 되도록 보장할 것을 명시적으로 촉구합니다.
국제 사회에서 미국과 중국이 모두 선언문에 서명한 것은 취약하지만 중요한 휴전을 의미합니다. 이는 지정학적 마찰에도 불구하고 세계 강대국들이 AI 표준에 대한 최소한의 조율 필요성을 인식하고 있음을 시사합니다. 비록 그 기준이 현재로서는 구속력이 없을지라도 말입니다.
선언의 운영 프레임워크는 서밋 기간 동안 "차크라(Chakras)"로 불린 7가지 기둥을 중심으로 구축되었습니다. 이 기둥들은 혁신, 안전, 형평성이라는 상충하는 요구 사항의 균형을 맞추려는 시도입니다.
표 1: 뉴델리 선언의 7가지 차크라
| 기둥 이름 | 핵심 목표 | 글로벌 시사점 |
|---|---|---|
| AI 자원 민주화 | 컴퓨팅 및 파운데이션 모델(Foundational models)에 대한 저렴한 접근 보장. | 서구 기술 거대 기업의 독점을 완화함. |
| 경제 성장 및 사회 공헌 | 농업, 의료, 교육에 AI 활용. | 이론적 위험보다 실질적 유용성을 우선시함. |
| 안전하고 신뢰할 수 있는 AI | 자발적인 안전 벤치마크 및 레드팀(Red-teaming) 프로토콜 수립. | 안전을 위한 "연성법(Soft law)" 프레임워크 구축. |
| 과학을 위한 AI | 과학적 AI 연구에 대한 국가 간 협력 촉진. | 신약 개발 및 기후 솔루션 가속화. |
| 사회적 역량 강화를 위한 접근성 | 다국어 AI 도구를 통해 디지털 격차 해소. | 비영어권 사용자의 포용에 집중. |
| 인적 자원 개발 | 글로벌 "AI 인력 개발 플레이북" 제작. | 재교육을 통해 일자리 대체 우려 해결. |
| 회복 탄력적이고 효율적인 시스템 | 에너지 효율적인 알고리즘 및 그린 컴퓨팅 장려. | AI의 환경적 발자국 문제 해결. |
축제 분위기에도 불구하고, 이 선언은 안전 옹호자들로부터 정밀 조사를 받았습니다. 본문은 "자발적이고 구속력 없는 가이드라인"에 크게 의존하고 있는데, 이 문구는 시민 사회 단체와 안전 연구소들로부터 비판을 받았습니다. 보고서에 따르면 수십 개국이 처음에 제안되었던 더 엄격한 안전 약속을 피하고, 대신 최종 문서의 더 유연한 표현을 선택했습니다.
자율 에이전트 AI(Autonomous agentic AI) 또는 생물학적 위험에 대한 구속력 있는 "레드라인"이 제외된 것은 2025년 파리 AI 행동 서밋(Paris AI Action Summit)에서 이루어진 약속으로부터의 후퇴로 보는 시각도 있습니다. 그러나 뉴델리 방식의 지지자들은 구속력 있는 조약은 시기상조이며 긴급한 글로벌 과제를 해결하는 데 필요한 혁신을 저해할 뿐이라고 주장합니다.
Creati.ai는 동일한 서명국 명단에 미국과 중국이 포함된 것이 이러한 전략적 모호성을 필요하게 만들었을 가능성이 크다고 언급합니다. 구속력 있는 조약은 두 강대국 모두 준비되지 않은 비준 절차를 요구했을 것입니다. 프레임워크를 자발적으로 유지함으로써 인도는 집행의 깊이를 희생하는 대신 합의의 폭을 넓혀 최대한의 참여를 보장했습니다.
고위급 원칙을 넘어, 이번 서밋은 "모두를 위한 AI" 비전을 실현하기 위해 설계된 여러 가시적인 성과를 냈습니다.
AI 산업 측면에서 뉴델리 선언은 **어플리케이션 레이어 혁신(Application-layer innovation)**으로의 전환을 시사합니다. 초점이 "AI가 세상을 파괴하는 것을 어떻게 막을 것인가"에서 "더 나은 세상을 만들기 위해 AI를 어떻게 사용할 것인가"로 옮겨갔습니다.
특히 오픈 소스 커뮤니티의 개발자와 스타트업에게 이는 긍정적인 발전입니다. **민주화된 AI(Democratized AI)**와 개방형 자원에 대한 강조는 소수의 지배적인 연구소에 의한 "규제 포획(Regulatory capture)" 내러티브에 반격합니다. 그러나 구속력 있는 안전 규칙이 없다는 것은 책임 있는 개발에 대한 책임이 여전히 민간 부문과 개별 국가에 크게 남아 있음을 의미합니다.
대표단이 뉴델리를 떠나면서 진짜 시험이 시작됩니다. 거버넌스의 "차크라"가 조화롭게 돌아갈 것인지, 아니면 합의의 자발적 성격이 파편화된 글로벌 환경으로 이어질 것인지 말입니다. 현재로서는 세계가 속도 제한은 아닐지라도 방향에는 합의한 상태입니다.