
인공지능의 급격한 발전을 둘러싼 긴장이 고조되고 있음을 보여주는 생생한 사례로, 토요일 샌프란시스코 거리에서 약 200명의 시위대가 행진을 벌였습니다. "Stop the AI Race"라는 슬로건 아래 조직된 이 시위대는 업계에서 가장 저명한 개발사인 Anthropic, OpenAI, 그리고 xAI의 본사 앞에서 집회를 가졌습니다.
Anthropic 사무실에서 시작하여 OpenAI를 거쳐 최종적으로 xAI까지 이어진 이번 행진은, IT 산업이 추진하는 "프런티어 AI (frontier AI)" 역량과 현재의 개발 속도가 인류에게 실존적 위험을 초래한다고 우려하는 활동가, 연구원 및 학자들로 구성된 목소리 높은 연합 사이의 깊어지는 간극을 부각시켰습니다.
시위대의 주요 요구 사항은 명확하고 타협의 여지가 없었습니다. 그들은 점점 더 강력해지는 AI 모델 개발을 조건부로 협력하여 중단할 것을 요구하고 있습니다. 이번 행사를 이끈 "Stop the AI Race"의 설립자이자 다큐멘터리 제작자인 Michael Trazzi는 이번 시위가 단순히 기술을 멈추려는 것이 아니라 안전에 초점을 재조정하려는 것이라고 강조했습니다.
활동가들은 글로벌 AI 지형이 기업과 국가가 안전보다 속도를 우선시하며 가장 진보된 시스템이라는 타이틀을 차지하기 위해 편법을 동원하는 "자살 경주(Suicide race)"로 전락했다고 주장합니다. 그들은 이러한 환경이 통제 불능의 AI 시스템 개발을 필연적으로 만든다고 논쟁합니다.
| 조직 | 주요 초점 | 운동에서의 역할 |
|---|---|---|
| Stop the AI Race | 시위 조직 | 전략 및 조정 |
| PauseAI | 정책 및 옹호 | 대중 인식 제고 및 로비 |
| QuitGPT | 안전 및 감독 | 업계 책임 추궁 |
| Machine Intelligence Research Institute | 기술 안전 연구 | 위험에 대한 이론적 프레임워크 |
| Evitable | 실존적 위험 완화 | 대중 참여 및 인식 제고 |
시위가 진행되는 동안 조직위는 이러한 산업 전반의 중단이 어떻게 달성될 수 있는지에 대한 구체적인 비전을 제시했습니다. Trazzi는 국제 조약 수립에 핵심이 있다고 제안했습니다. 그는 프런티어 AI 개발의 두 주요 경쟁국인 미국과 중국이 더 위험하고 강력한 모델 구축에 대한 모라토리엄(Moratorium)에 합의한다면, 글로벌 인센티브 구조가 바뀔 것이라고 상정했습니다.
시위대에 따르면, 이러한 프레임워크를 통해 연구소들이 막대한 자원을 잠재적으로 더 위험한 차세대 생성형 AI (generative AI)를 출시하기 위해 경쟁하는 대신 의료 AI와 같은 유익한 응용 분야로 전환할 수 있게 될 것입니다.
이러한 중단을 강제하는 것의 실행 가능성에 대해 질문을 받았을 때, Trazzi는 컴퓨팅 파워(Computing power)를 가장 유효한 통제 지표로 꼽았습니다. 대규모 시스템 교육에 사용되는 컴퓨팅 용량에 대해 국제적인 제한을 시행함으로써, 규제 당국은 고위험 신규 모델 개발에 효과적으로 강력한 상한선을 부과할 수 있습니다.
이번 주말 샌프란시스코 시위는 고립된 사건이 아니라 AI 개발의 현상 유지를 타파하려는 일련의 노력 중 가장 최근에 고조된 활동입니다. "중단"에 대한 요구는 2023년 3월로 거슬러 올라가는 AI 안전 (AI safety) 담론의 반복되는 테마가 되었습니다. 당시 Future of Life Institute는 주요 AI 도구의 향상에 대한 모라토리엄을 요구하는 공개 서한을 발표했으며, 여기에는 Apple의 공동 설립자 Steve Wozniak과 xAI 설립자 Elon Musk를 포함한 저명인사 33,000명 이상의 서명이 담겼습니다.
활동은 더 개인적인 형태를 띠기도 했습니다. Trazzi는 이전에 런던의 Google DeepMind 사무실 밖에서 세간의 이목을 끄는 수 주간의 단식 투쟁을 벌였습니다. 마찬가지로 활동가 Guido Reichstadter는 샌프란시스코의 Anthropic 본사 밖에서 병행 단식 투쟁을 진행했습니다. 이러한 행동들은 방식 면에서는 극단적일 수 있으나, 개입 없이는 현재의 개발 궤적이 파괴적인 결과를 초래할 수 있다는 신념인 "둠머(doomer)" 철학의 강렬함을 반영합니다.
시위대는 현재 그들의 목표와 정반대되는 정치적 환경에 직면해 있습니다. 활동가들이 속도 조절을 요구하는 반면, 현재 미국의 정치 지형은 해당 분야에서 지배력을 유지하려는 강렬한 열망이 특징입니다.
최근 발표된 트럼프 행정부의 AI 프레임워크는 "AI 경주에서의 승리"에 대한 국가적 의지를 강조하고 있습니다. 이는 안전 우선의 중단을 주장하는 이들에게 상당한 걸림돌이 되는데, 정부 관리들과 업계 로비스트들이 미국의 연구 속도를 늦추는 것이 해외 경쟁국들에게 결정적인 우위를 내주어 잠재적으로 국가 안보를 위태롭게 할 것이라고 자주 주장하기 때문입니다.
| 관점 | AI 개발에 대한 입장 | 주요 우려 사항 |
|---|---|---|
| AI 안전 활동가 | 즉각적이고 협력적인 중단 | 실존적 위험 및 통제 불능 |
| 정부/업계 | 지속적이고 가속화된 연구 | 국가 안보 및 글로벌 경쟁력 |
주말 행사 이후 OpenAI, Anthropic 또는 xAI로부터 공식적인 성명은 나오지 않았지만, 행진 조직위는 물러날 계획이 없습니다. Trazzi는 이러한 주요 연구소들이 운영되는 다른 지역에서도 향후 시위가 이어질 가능성이 높다고 시사했습니다.
전략적 변화는 명확합니다. Trazzi는 "우리는 직원들이 있는 곳에 나타나고 싶다"고 밝혔습니다. 시위대는 외부의 압력과 내부의 변화 사이의 간극을 메우고, 연구소 내부의 직원들이 경영진에 도전하고 내부 고발자(Whistleblower)가 되도록 독려하기를 희망하고 있습니다. 업계가 아찔한 속도로 계속 전진함에 따라, 미래를 건설하는 이들과 그 도래를 두려워하는 이들 사이의 간극은 더욱 벌어질 것으로 보입니다.