
인공지능 개발을 둘러싼 가드레일을 강화하기 위한 중대한 조치로, OpenAI는 얼라이먼트 프로젝트(The Alignment Project)에 750만 달러(약 560만 파운드)를 투입하기로 발표했습니다. 영국 AI 안전 연구소(UK AI Security Institute, UK AISI)가 주도하는 이 이니셔티브는 점점 더 강력해지는 AI 시스템을 통제 가능한 상태로 유지하고 인간의 의도에 따라 작동하도록 보장하는 핵심 과학인 AI 정렬(AI alignment)에 대한 독립적인 연구를 진전시키기 위한 주요 협력 노력의 결실입니다.
2026년 2월 19일에 확정된 이 서약은 총 자금 규모가 2,700만 파운드를 넘어선 얼라이먼트 프로젝트 (The Alignment Project)의 광범위한 확장의 일환입니다. 이러한 확장은 Microsoft를 포함한 다른 업계 거물들의 지원으로 강화되었으며, 글로벌 AI 안전 (AI safety) 거버넌스를 선도하려는 영국의 전략에서 초석으로 자리 잡고 있습니다. 이번 발표는 인도에서 열린 AI 임팩트 서밋(AI Impact Summit)의 폐막과 때를 같이하며, 안전 연구의 시급성에 대한 국제적인 합의를 강조하고 있습니다.
내부 기업 연구소가 아닌 독립 연구자들에게 자금을 지원함으로써, OpenAI는 안전에 대한 업계 접근 방식의 중대한 변화를 인정하고 있습니다. 즉, 범용 인공지능(Artificial General Intelligence, AGI) 정렬의 과제는 개별적으로 운영되는 기술 기업들이 해결하기에는 너무 복잡하고 중대하다는 인식을 보여주는 것입니다.
얼라이먼트 프로젝트는 안전 혁신을 위한 글로벌 엔진이 되도록 설계되었습니다. 특정 제품 로드맵에 집중하는 내부 기업 연구 부서와 달리, 이 이니셔티브는 고급 인지 시스템을 인간의 가치와 정렬하는 방법에 대한 더 넓고 근본적인 질문을 목표로 합니다. 이 프로젝트는 과학혁신기술부 (Department for Science, Innovation and Technology, DSIT) 산하의 영국 AI 안전 연구소(UK AISI)에서 관리합니다.
프로젝트의 핵심 미션은 상업적 압박으로 인해 간과될 수 있는 '블루 스카이(blue-sky)' 사고와 엄격한 기술 연구를 지원하고 자금을 제공하는 것입니다. AI 모델의 능력이 확장됨에 따라 오차 범위는 좁아집니다. 얼라이먼트 프로젝트는 이러한 시스템이 특정 영역에서 인간 수준의 성능을 능가하더라도 유익한 상태를 유지할 수 있도록 예측, 제어 및 유도하는 강력한 방법론을 개발하고자 합니다.
자금 지원은 정렬 문제의 다면적인 성격을 반영하여 다양한 학문 분야를 지원할 예정입니다. 연구 범위는 컴퓨터 과학에 국한되지 않고 다음과 같이 확장됩니다:
이러한 학제간 접근 방식은 안전 솔루션이 기술적으로뿐만 아니라 사회적, 경제적으로도 견고함을 보장합니다. 이미 8개국에 걸친 60개 프로젝트에 1차 보조금이 지급되었으며, 2차 자금 지원 라운드는 2026년 여름에 열릴 예정입니다. 개별 보조금은 5만 파운드에서 100만 파운드 사이로, 학계 팀과 비영리 연구자들에게 상당한 자원을 제공합니다.
얼라이먼트 프로젝트의 자본화는 공공 부문, 민간 산업 및 자선 단체 간의 협력이 증가하고 있음을 보여주는 증거입니다. 영국 정부가 기반을 마련한 반면, OpenAI와 Microsoft로부터 유입된 민간 자본은 프로젝트의 도달 범위를 크게 확대했습니다.
다음 표는 주요 이해관계자와 이 이니셔티브를 지원하는 연합의 구조를 상세히 설명합니다:
연합 파트너 및 기여 내용
---|---|----
기관|역할/기여|유형
OpenAI|750만 달러(560만 파운드) 약정|민간 산업
Microsoft|미공개 재정 지원 및 컴퓨팅 자원|민간 산업
영국 정부 (DSIT)|창립 파트너 및 행정 감독|공공 부문
Schmidt Sciences|자선 지원|비영리
Amazon Web Services (AWS)|컴퓨팅 인프라 지원|민간 산업
Anthropic|전략적 파트너십 및 자원 지원|민간 산업
CIFAR|연구 협력 (캐나다)|연구 기관
호주 정부|정책 및 연구 정렬|공공 부문
OpenAI, Anthropic 및 Google DeepMind(자문위원회의 연구자를 통해 참여)와 같은 직접적인 경쟁사들의 참여는 AI 안전이 공동의 생존과 발전을 위해 협력이 필수적인 '사전 경쟁(pre-competitive)' 영역으로 점점 더 간주되고 있음을 보여줍니다.
이번 발표에서 가장 눈에 띄는 측면 중 하나는 '독립적인' 연구에 대한 강조입니다. OpenAI 및 Google DeepMind와 같은 프런티어 랩(Frontier labs)은 세계에서 가장 강력한 슈퍼컴퓨터와 독점 모델을 보유하고 있습니다. 그러나 이들은 또한 특정 설계 선택과 관련된 내재적인 이해 상충 및 '집단 사고(groupthink)' 위험에 직면해 있습니다.
OpenAI의 연구 부사장인 미아 글레이즈(Mia Glaese)는 이러한 필요성을 명확히 밝혔습니다. 그녀는 프런티어 랩이 방대한 컴퓨팅과 최첨단 모델에 대한 접근이 필요한 연구를 수행하기에 독보적인 위치에 있지만, 정렬의 가장 어려운 문제들은 어느 한 조직에 의해 해결되지 않을 것이라고 언급했습니다.
글레이즈는 "우리는 서로 다른 가정과 접근 방식을 테스트하는 독립적인 팀이 필요합니다"라고 말했습니다. "우리가 영국 AI 안전 연구소 (UK AI Security Institute)의 얼라이먼트 프로젝트를 지원하는 것은 우리의 내부 정렬 작업을 보완하며, 고급 시스템이 더 개방적인 환경에 배치될 때 신뢰할 수 있고 통제 가능한 상태를 유지하는 데 집중하는 더 넓은 연구 생태계를 강화하는 데 도움이 됩니다."
이러한 안전 연구 분산화 전략은 몇 가지 중요한 기능을 수행합니다:
이 펀드의 관리자로 영국 AI 안전 연구소(UK AISI)가 선정된 것은 글로벌 AI 거버넌스 허브로서 영국의 위상을 강화합니다. 블레칠리 파크(Bletchley Park)에서 첫 번째 AI 안전 서밋을 개최한 이후, 영국은 국제 AI 안전 표준의 중재자로 적극적으로 자리매김해 왔습니다.
데이비드 라미(David Lammy) 영국 부총리는 AI가 막대한 경제적 기회를 제공하지만, 그 혜택은 안전이 처음부터 '내재화(baked in)'될 때만 실현될 수 있다고 강조했습니다. 라미 부총리는 "우리는 이 기술의 혜택을 실현하기 시작할 수 있는 강력한 안전 토대를 구축했습니다"라며 "OpenAI와 Microsoft의 지원은 이 노력을 계속 진전시키는 데 매우 귀중할 것입니다"라고 말했습니다.
카니슈카 나라얀(Kanishka Narayan) 영국 AI 장관도 이러한 의견에 동의하며 신뢰를 광범위한 AI 도입의 주요 장벽으로 꼽았습니다. 정부는 정렬 연구에 자원을 투입함으로써 공공 부문이 확신을 가지고 AI를 배치할 수 있도록 하는 인증 및 안전 검증 생태계를 구축하는 것을 목표로 하고 있습니다.
영국의 독보적인 위치는 학문적 밀도에 의해 더욱 강화됩니다. 세계 10대 대학 중 4곳이 있는 영국은 정렬 연구에 필요한 심도 있는 이론적 작업에 비옥한 토양을 제공합니다. 요슈아 벤지오(Yoshua Bengio)와 지코 콜터(Zico Kolter) 같은 저명인사들을 포함한 얼라이먼트 프로젝트의 세계적 수준의 전문가 자문위원회는 자금이 가장 유망하고 과학적으로 엄격한 제안에 전달되도록 보장합니다.
OpenAI의 750만 달러 투입은 자선적인 제스처 그 이상입니다. 이는 AI 생태계의 안정성에 대한 전략적 투자입니다. 모델이 텍스트 생성에서 현실 세계에서 사용자를 대신해 행동하는 에이전트 행동으로 이동함에 따라, 정렬 오류의 위험은 기하급수적으로 증가합니다.
OpenAI는 안전 조치에 대한 실제 테스트를 가능하게 하기 위해 기능을 점진적으로 출시하는 철학인 '반복적 배포(iterative deployment)'를 옹호합니다. 그러나 이 접근 방식은 안전 연구자들이 취약점을 신속하게 식별하고 패치할 수 있는 피드백 루프에 크게 의존합니다. 얼라이먼트 프로젝트는 이러한 시스템을 감시하는 눈의 수를 확장합니다.
이 프로젝트를 통해 지원받는 독립적인 생태계가 성공한다면, 항공이나 제약 산업에서 볼 수 있는 것과 유사한 '안전 견제와 균형'의 출현을 볼 수 있을 것입니다. 이러한 보조금을 통해 개발된 방법론을 갖춘 제삼자 감사인은 결국 모델이 대중에 출시되기 전에 인증을 수행할 수 있게 될 것입니다.
자금 지원 범위에 경제 이론과 사회 과학이 포함된 것은 AI 위험에 대한 이해가 성숙해지고 있음을 시사합니다. 이제 단순히 시스템이 '충돌'하거나 독성 텍스트를 출력하는 것을 방지하는 것만이 문제가 아닙니다. 시장이나 민주적 절차의 시스템적 불안정화를 방지하는 것이 중요해졌습니다.
이번 여름 2차 자금 지원이 시작됨에 따라, 업계는 어떤 특정 프로젝트들이 동력을 얻을지 면밀히 지켜볼 것입니다. 얼라이먼트 프로젝트의 성공은 향후 국제 협력의 청사진이 될 수 있으며, 잠재적으로 초지능의 존재론적 도전 과제를 해결하기 위해 자원을 모으는 글로벌 'AI 안전을 위한 CERN'으로 이어질 수도 있습니다.
현재로서는 OpenAI와 Microsoft의 약속은 기술 업계가 근본적인 진실을 받아들이고 있음을 신호합니다. 즉, AGI를 구축하기 위한 경쟁에서 안전은 모두가 함께 결승선을 통과해야 하는 유일한 트랙이라는 점입니다.