
미국 국방부와 민간 인공지능(Artificial Intelligence, AI) 부문 사이의 관계를 재편할 수 있는 움직임으로, 엘리사 슬롯킨(Elissa Slotkin, 민주당-미시간) 상원의원은 국방부(Department of Defense, DoD)의 인공지능 사용에 대해 협상 불가능한 엄격한 법적 제한을 부과하기 위해 설계된 획기적인 입법 제안을 발표했습니다. 이 이니셔티브는 국방부와 AI 개발사인 앤스로픽(Anthropic) 사이의 세간의 이목을 끈 대립 직후에 나온 것으로, 군사 및 정보 작전에서 강력한 생성형 AI(Generative AI) 모델이 어떻게 배치되어야 하는지에 대한 깊어지는 갈등을 조명합니다.
슬롯킨 상원의원의 제안은 다가오는 국방수권법(National Defense Authorization Act, NDAA)에 통합될 가능성을 염두에 두고 있으며, AI의 능력과 배치에 관한 구체적인 "레드라인(Red Lines)"을 연방법에 명시하는 것을 목표로 합니다. 미국 군대가 신흥 기술 도입을 가속화함에 따라, 명확한 입법적 경계의 부재는 국회의원, 개인정보 보호 옹호자, 업계 리더들 사이에서 격렬한 논쟁을 불러일으켰습니다.
이 법안의 핵심은 세 가지의 뚜렷하고 근본적인 금지 사항입니다. 이러한 제한 사항을 법제화함으로써 슬롯킨 상원의원은 국방부가 민주적 규범과 글로벌 안정에 중대한 윤리적, 법적 또는 실존적 위험을 초래할 수 있는 방식으로 첨단 AI를 활용하는 것을 방지하고자 합니다.
제안된 "레드라인"은 다음과 같습니다:
슬롯킨 상원의원 법안의 시급성은 미국 내 주요 AI 개발사 중 하나인 앤스로픽(Anthropic)과 국방부 사이의 최근 긴장과 직접적으로 연관되어 있습니다. 보고서에 따르면 피트 헤그세스(Pete Hegseth) 장관이 이끄는 국방부는 앤스로픽으로부터 AI 역량을 조달하려 했습니다. 그러나 앤스로픽은 자사 모델에 대한 무제한적인 접근 제공에 저항했으며, 특히 군대가 자율 살상 표적 설정이나 국내 감시에 기술을 사용할 수 있도록 허용하는 요구 사항에 반대한 것으로 알려졌습니다.
이 마찰 지점은 비판적인 단절을 부각시켰습니다. 국방부는 AI를 전략적 필수 요소로 보고 종종 최대의 작전적 유연성을 요구하는 반면, 많은 일류 AI 기업들은 점점 더 "헌법적 AI(Constitutional AI)"와 안전 우선 개발 철학에 전념하고 있습니다. 이러한 대립은 입법적 명확성이 없다면 미국 정부가 기술적 우위를 위해 의존하는 바로 그 민간 부문 파트너들과 전략적 소외를 겪을 위험이 있음을 시사합니다.
슬롯킨 상원의원의 입법은 모든 계약자에게 표준적인 교전 규칙을 설정함으로써 이러한 불확실성을 해결하는 것을 목표로 합니다. 이러한 제한을 법제화함으로써 정부는 기술 기업들을 위한 "세이프 하버(Safe Harbor)"를 효과적으로 조성하여, 기업들이 구축한 윤리적 제약을 위반하도록 모델이 조작될 것이라는 두려움 없이 국방 목표를 지원할 수 있게 합니다.
법안의 함의를 이해하기 위해, 제약 사항을 이를 이끄는 근거와 함께 분류하는 것이 도움이 됩니다. 다음 표는 제안된 입법적 가드레일에 대한 분석을 제공합니다.
| 제약 사항 | 주요 근거 | 잠재적 영향 |
|---|---|---|
| 살상 자율성 | 지휘되지 않은 인명 손실 방지 | 살상력 행사에 대한 "인간의 개입" 의무화 |
| 대량 감시 | 시민의 자유 보호 | 국내 데이터 사용/표적 설정에 대한 제한 |
| 핵 지휘 | 치명적인 시스템 위험 방지 | 대량살상무기(WMD) 결정 체인 내 AI 사용 명시적 금지 |
이 제안은 상원 군사위원회에서 논의의 주제로 힘을 얻고 있지만, 법 제정까지의 경로는 여전히 정치적 장애물로 가득 차 있습니다. 현재 국방부 지도부를 포함한 국방 체제는 역사적으로 "포괄적인" 제한에 대해 경계해 왔으며, 이러한 제한이 군사용 AI에 막대한 투자를 하고 있는 중국과 같은 적대국들에게 경쟁적 우위를 내줄 수 있다고 주장해 왔습니다.
슬롯킨 상원의원은 미국 군대에 자금을 지원하는 연례 "필수 통과" 법안인 국방수권법(NDAA) 내에 이러한 조항을 포함할 것을 옹호하고 있습니다. AI 안전 장치를 NDAA에 결부시킴으로써, 지지자들은 이 문제를 주류 국방 정책 토론으로 끌어들여 행정부가 논의를 우회하기 어렵게 만들 수 있다고 믿습니다.
그러나 반대 의견도 만만치 않습니다. 안보 기구 내의 비판론자들은 기술이 경직된 법령보다는 행정 정책에 의해 통제되어야 한다고 주장하며, 법령은 AI의 빠른 진화 속도를 따라잡기 어려울 수 있다고 지적합니다. 반대로 시민 사회 단체와 일부 온건파 의원들은 정책만으로는 불충분하다고 주장하며, 행정 명령은 차기 정부에 의해 뒤집힐 수 있는 반면 연방법은 책임을 위한 지속 가능한 프레임워크를 제공한다고 강조합니다.
슬롯킨 의원의 법안이 촉발한 논쟁은 국방부(Pentagon)와 앤스로픽의 즉각적인 우려를 초월합니다. 이는 21세기의 근본적인 긴장인 급격한 기술 도입과 민주적 가드레일 보존 사이의 균형을 건드리고 있습니다.
Creati.ai 관찰자들에게 이 발전은 업계의 시금석 역할을 합니다. 이는 기술 개발의 "빨리 움직이고 파괴하라(move fast and break things)" 시대를 지나, 윤리적 엔지니어링이 정부 파트너십의 전제 조건이 되는 더 성숙한 단계로의 이동을 신호합니다. 이 법안이 통과된다면, 다른 국가들이 군사적 맥락에서 AI 규제에 접근하는 방식에 영향을 미치며 글로벌 선례를 남길 가능성이 높습니다.
궁극적으로 슬롯킨 상원의원의 입법 추진은 AI가 단순한 도구가 아니라 변혁적인 힘이라는 인식의 표현입니다. 지금 경계를 설정함으로써 미국은 "책임감 있는" AI 개발을 선도할 기회를 가지며, 차세대 국방 기술이 지정학적 불안정의 자율적인 동력이 아닌 인간 의도의 하인으로 남도록 보장할 수 있습니다. 법안이 입법 과정을 통과하기 위해 필요한 초당적 지지를 얻을 수 있을지는 지켜봐야 하겠지만, 이 법안이 점화한 대화는 부정할 수 없이 필수적입니다.