
워싱턴 D.C. — 실리콘밸리 AI 연구소와 연방 정부 간의 갈등이 역사적이고 전례 없는 수준으로 격화되면서, 전쟁부(Department of War, 구 국방부)가 Anthropic과의 2억 달러 규모 계약을 해지했습니다. 이번 조치는 Anthropic 측이 자사 모델을 자율 무기 체계 및 대량 감시에 사용하는 것에 대한 운영 제한 규정 해제를 거부함에 따라 이루어졌습니다.
어제 늦게 발표된 지시서에서 피트 헤그세스(Pete Hegseth) 전쟁부 장관은 Anthropic을 "국가 안보에 대한 공급망 리스크(Supply-Chain Risk)"로 공식 지정했습니다. 이 라벨은 역사적으로 적대국이나 미국 이익에 반하는 것으로 간주되는 통신 업체에 부여되던 것입니다. 이번 지정으로 인해 미군과 연계된 방대한 계약업체 네트워크와 샌프란시스코 기반의 이 AI 기업 간의 모든 상업적 상호작용이 즉각 금지됩니다.
이번 계약 해지는 Anthropic의 주력 모델인 Claude에 내장된 윤리적 "레드라인"을 둘러싼 수개월 간의 분쟁이 정점에 달한 결과입니다. 펜타곤은 전략적 우위를 유지하기 위해 최첨단 AI 모델에 대한 "제한 없는" 접근 권한을 요구해 왔으나, Anthropic은 특정 살상 및 감시 애플리케이션을 수용하기 위해 자사의 이용 허용 정책(Acceptable Use Policy, AUP)을 수정하는 것을 단호히 거부해 왔습니다.
협상에 정통한 소식통에 따르면, 전쟁부는 Claude가 완전 자율 드론을 조종하거나 국내 통신 데이터를 대규모로 분석하는 데 사용되는 것을 방지하는 안전장치 제거를 요구했습니다. Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 자사의 기술이 민주적 가치를 훼손하거나 유의미한 인간의 감독이 결여된 방식으로 배치되는 것을 "양심상" 허용할 수 없다고 밝히며 이러한 조건을 거부한 것으로 알려졌습니다.
"이것은 능력의 실패가 아니라 원칙의 충돌입니다"라고 Creati.ai의 한 선임 분석가는 말했습니다. "Anthropic은 고객이 지구상에서 가장 강력한 군대일지라도 AI 안전(AI safety)은 타협할 수 없다는 생각에 사실상 사업을 걸고 도박을 하고 있는 셈입니다."
가장 중요한 진전은 계약 손실 그 자체가 아니라, 국내 미국 기업을 상대로 "공급망 리스크" 권한을 발동했다는 점입니다. 헤그세스 장관의 명령은 단순한 서비스 취소를 훨씬 뛰어넘는 파급력을 가집니다.
지정에 따른 주요 영향:
법학자들은 외국 스파이 활동 및 파괴 공작을 방지하기 위해 설계된 공급망 권한을 윤리 지침에 대한 국내 계약 분쟁을 처벌하는 데 사용하는 것의 타당성에 대해 이미 의문을 제기하고 있습니다. Anthropic은 이번 지정을 진정한 안보 평가가 아닌 "이념적 보복"이라고 규정하며 연방법원에 이의를 제기하겠다고 다짐했습니다.
Anthropic이 펜타곤의 포트폴리오에서 제외됨에 따라, 경쟁 연구소인 OpenAI는 군의 주요 AI 파트너로서의 입지를 굳히기 위해 신속하게 움직였습니다. 보고에 따르면 OpenAI는 Anthropic이 거부했던 조건에 동의했으며, 이에 따라 기밀 네트워크 내에 GPT-4 기반 시스템을 구축하는 수익성 높은 새로운 계약을 체결했습니다.
이러한 전환은 두 AI 거물 사이의 격렬한 공개 비난전으로 이어졌습니다. OpenAI의 새로운 계약 소식이 전해진 후, 다리오 아모데이는 신랄한 내부 메모를 발행했으며 그 일부가 기술 미디어에 유출되었습니다. 아모데이는 OpenAI가 "안전 연극(safety theater)"에 가담하고 있다고 비난하며, 군사적 안전장치에 대한 그들의 공개 메시지를 "순전한 거짓말"이라고 규정했습니다.
"OpenAI는 스스로를 평화 유지군처럼 묘사하고 있지만, 실제로는 그들이 고수한다고 주장하는 바로 그 안전 표준을 갉아먹는 계약에 서명하고 있습니다"라고 아모데이는 썼습니다. 그는 OpenAI의 계약에 자율 살상에 대한 제한을 사실상 무효화하는 "루프홀(허점)"이 포함되었을 가능성이 높다고 주장했습니다. 이에 대해 OpenAI는 자사의 파트너십이 오로지 "합법적인 방어용 애플리케이션"에만 집중되어 있다며 강력히 부인했습니다.
Anthropic을 블랙리스트에 올린 것은 광범위한 AI 생태계에 서늘한 경고를 보냅니다. 이는 미국 정부가 더 이상 기술 제공업체의 "윤리적 마찰"을 용인할 의사가 없음을 시사합니다. 벤처 캐피털의 지원을 받는 AI 스타트업들에게 메시지는 명확합니다. 전쟁부의 목적에 부합하는 것이 이제 공공 부문에서 생존하기 위한 필수 전제 조건이 되었다는 것입니다.
다음 표는 2026년 3월 기준, 군사 협력에 관한 주요 AI 연구소들의 엇갈린 행보를 보여줍니다.
전쟁부와 주요 AI 연구소의 상태
| 연구소명 | 계약 상태 | 살상 자율성에 대한 입장 |
|---|---|---|
| Anthropic | 해지 / 블랙리스트 지정 | 헌법적 AI(Constitutional AI)를 통한 엄격한 금지 |
| OpenAI | 활성 / 확장 | "합법적 방어" 용도 허용 |
| Google DeepMind | 검토 중 | 제한적, 인간 개입(human-in-the-loop) 조건부 |
| xAI | 활성 / 기밀 | 무제한적 "합법적 사용" 준수 |
앞으로 몇 주는 Anthropic에게 매우 중대한 시기가 될 것입니다. 만약 "공급망 리스크" 지정이 법적 심사에서 유지된다면, 이 회사는 기업용 비즈니스에서 실존적 위협에 직면하게 됩니다. 국방 분야에도 서비스를 제공하는 기업 고객들은 규제의 불똥을 피하기 위해 대안 모델로 이주해야 할 수도 있습니다.
한편, 전쟁부는 과도한 안전 필터링이 적용된 모델을 지칭하기 위해 헤그세스 장관이 사용한 용어인 "깨어있는 AI(woke AI)"에 대한 인내심이 바닥났음을 시사했습니다. 미국이 생성형 AI(Generative AI)를 지휘 통제 인프라에 통합하기 위해 속도를 내면서, "애국적" AI 개발자와 "안전 우선" 연구소 사이의 분열은 업계를 정의하는 결정적인 경계선이 될 것으로 보입니다.