
인공지능(AI)과 국가 안보(national security)가 맞물리는 급변하는 지점이 임계점에 도달했습니다. 민간 AI 부문과 미국 정부 사이의 긴장이 크게 고조되는 가운데, 고성능 클로드 AI(Claude AI) 모델의 개발사인 앤스로픽(Anthropic)이 국방부(DoD)의 주장에 공식적으로 이의를 제기했습니다. 새로운 법원 제출 자료에 따르면, 앤스로픽은 자사의 군사용 AI 도구에 "킬 스위치(kill switch)"나 사보타주 메커니즘을 통합하기로 사전에 합의했다는 펜타곤의 주장을 근본적으로 거부하고 있습니다.
정책 입안자들과 기술자들 모두의 관심을 끌고 있는 이 법적 대결은 개발 협약 및 안전 가드레일에 대한 해석을 중심으로 전개되고 있습니다. 펜타곤(Pentagon)은 공개적으로 이 관계를 특정 준수 기대 사항이 포함된 관계로 규정해 왔으나, 앤스로픽의 최신 법적 의견서는 회사의 AI 안전(AI safety) 프레임워크와 계약상의 의무에 대한 심각한 오해가 있음을 시사하며 다른 그림을 그리고 있습니다.
이러한 마찰의 핵심에는 앤스로픽(Anthropic)과 진행 중인 협력에 대한 펜타곤의 성격 규정이 자리 잡고 있습니다. 국방부는 앤스로픽이 클로드 AI 도구가 정의된 국가 안보(national security) 매개변수를 벗어나 작동한다고 판단될 경우, 정부 당국이 이를 비활성화하거나 "사보타주"할 수 있도록 허용할 의사가 있음을 시사했다고 주장한 것으로 알려졌습니다. 앤스로픽의 법원 제출 자료는 이러한 전제가 기술적으로 부정확하며 절차적으로도 잘못 규정되었다고 주장하며 직접적으로 반박하고 있습니다.
앤스로픽은 펜타곤이 자사의 AI 모델을 일방적으로 비활성화할 수 있도록 허용하는 어떠한 합의도 체결한 적이 없다고 주장합니다. 회사의 관점에서 볼 때, 국방부의 주장은 모델이 유해하거나 환각 현상이 있거나 편향된 출력을 생성하는 것을 방지하도록 설계된 표준 "AI 안전 가드레일"을 "사보타주" 또는 "킬 스위치" 메커니즘과 혼동하고 있는 것으로 보입니다.
AI 안전 연구자들에게 가드레일과 킬 스위치의 구분은 매우 중요합니다. 앤스로픽은 자사의 안전 메커니즘이 대규모 언어 모델의 핵심 기능에 필수적이라고 주장합니다. 회사의 입장은 다음과 같은 점을 시사합니다:
이 갈등의 심각성을 이해하기 위해서는 양측의 입장을 살펴보는 것이 필수적입니다. 다음 표는 법원 제출 자료에서 나타난 핵심 불일치 사항을 정리한 것입니다.
| 카테고리 | 앤스로픽의 입장 | 펜타곤의 주장 |
|---|---|---|
| 협약 범위 | 고정된 안전 표준을 갖춘 협력 개발 | "사보타주" 비상 계획을 포함한 준수 기반 |
| 안전 메커니즘 | 출력 정확성을 보장하기 위한 내부 가드레일 | 비상 비활성화를 위한 외부 제어 |
| 관계 현황 | 국방부에 의해 "정렬된" 것으로 잘못 표현됨 | 필수적이며 완전히 준수하는 것으로 분류됨 |
| 리스크 평가 | 모델 무결성 유지가 최우선임 | AI 자율성이 "국가 안보 리스크"를 제기함 |
앤스로픽과 펜타곤 사이의 분쟁은 업계가 직면한 보다 광범위한 과제를 상징합니다. 즉, 개발자의 안전, 개인 정보 보호 또는 지적 재산을 손상시키지 않으면서 어떻게 강력한 범용 AI 모델을 군사 인프라에 통합할 수 있는가 하는 점입니다.
최근 특정 AI 실험실로부터 국방 이익을 분리하겠다는 트럼프 행정부의 수사로 강조된 펜타곤의 공격적인 태도는 불안정한 환경을 조성하고 있습니다. 앤스로픽의 저항을 "국가 안보 리스크"로 규정함으로써, 국방부(Department of Defense)는 현재 국방 계약을 모색 중인 다른 모든 주요 AI 기업들에 대한 압박을 높이고 있습니다.
정부가 AI 기업에 "백도어" 접근 권한이나 비활성화 메커니즘을 제공하도록 성공적으로 강요한다면, 업계는 다음과 같은 몇 가지 실존적 리스크에 직면하게 됩니다:
이 법적 공방이 진행됨에 따라, 그 결과는 향후 군사 계약이 구조화되는 방식에 대한 선례를 남길 가능성이 높습니다. 법원이 앤스로픽의 손을 들어준다면, 국방부에 서비스를 제공할 때도 기술적 무결성에 대한 자율성을 유지할 수 있는 민간 AI 실험실의 권리가 확고해질 것입니다. 반대로 정부의 해석이 우세하다면, "개방적"이고 "안전한" AI 개발이 정부의 통제보다 부차적인 것이 되는 변화를 보게 될 수도 있습니다.
현재 업계는 이 상황을 예의주시하고 있습니다. 이번 긴장은 펜타곤이 AI를 관리해야 할 전략적 자산으로 보는 반면, 앤스로픽과 같은 기업들은 자사의 모델을 안전하게 작동하기 위해 개발자가 제어하는 엄격한 거버넌스가 필요한 독점적이고 매우 민감한 시스템으로 보고 있음을 극명하게 보여줍니다.
앤스로픽과 펜타곤의 대결은 단순한 법적 다툼이 아닙니다. 이는 AI 미래의 본질에 관한 근본적인 논쟁입니다. 국가 방위를 위해 인공지능을 활용하려는 움직임 속에서, 업계는 통제권을 찾는 과정이 모델을 가치 있게 만드는 바로 그 안전성과 신뢰성을 파괴하지 않도록 보장해야 합니다.