
인공지능(Artificial Intelligence, AI) 산업의 중대한 분수령이 되는 순간, 윤리적인 AI 개발과 국가 안보(National Security)의 필수 과제 사이의 긴장이 전면적인 공개 갈등으로 폭발했습니다. 펜타곤(Pentagon)이 Anthropic을 국가 안보에 대한 "공급망 위험(Supply Chain Risk)"으로 지정하라는 지침을 내린 이후, CEO 다리오 아모데이(Dario Amodei)는 "우리는 애국적인 미국인입니다"라고 주장하며 도전적이면서도 깊은 국가주의적 답변을 내놓았으며, 동시에 회사가 정의한 중대한 윤리적 레드라인(Red Lines)을 넘는 것은 거부했습니다.
이번 분쟁은 트럼프 행정부와 피트 헤그세스(Pete Hegseth) 국방장관이 명령한 전면적인 금지 조치로 이번 주 정점에 달했습니다. 분쟁의 핵심은 Anthropic이 무제한적인 군사적 이용, 특히 대규모 국내 감시(Mass Domestic Surveillance) 및 완전 자율 살상 무기(Fully Autonomous Lethal Weapons)와 관련된 이용을 허용하도록 서비스 약관(Terms of Service)을 수정하라는 요구를 거부한 데 있습니다.
갈등은 금요일 국방부(DoD)가 Anthropic에 최후통첩을 보내면서 한계점에 도달했습니다. 군의 Claude 모델 사용을 제한하는 안전 가드레일(Safety Guardrails)을 제거하지 않으면 블랙리스트에 오를 것이라는 내용이었습니다. 오후 5시 1분의 마감 시한이 Anthropic의 굴복 없이 지나가자, 헤그세스 장관은 국내 기업에는 거의 적용되지 않는 지정을 단행하여, 이 AI 거대 기업을 공급망 독성 측면에서 외국 적대국과 사실상 동일한 범주로 분류했습니다.
"미국의 전사들이 빅테크(Big Tech)의 이념적 변덕에 인질로 잡히는 일은 결코 없을 것"이라고 헤그세스는 선언하며, 미국 군대와 거래하는 어떤 계약자도 Anthropic과의 상업 활동을 지속할 수 없다고 발표했습니다.
세간의 주목을 받은 인터뷰와 후속 성명에서 다리오 아모데이는 자신의 회사가 국가 안보(National Security)를 방해하고 있다는 서사에 반박했습니다. 대신 그는 Anthropic의 거부를 핵심적인 미국적 가치에 대한 방어로 틀을 짰습니다. "우리가 해온 모든 일은 이 나라를 위해, 미국의 국가 안보를 지원하기 위해 이루어졌습니다,"라고 아모데이는 말했습니다. "우리가 그은 레드라인은 그 선을 넘는 것이 미국적 가치에 반한다고 믿기 때문에 그은 것입니다."
의견 불일치의 핵심은 Anthropic이 정부 고객에게조차 책임 있는 확장 정책(RSP, Responsible Scaling Policy)과 서비스 약관에서 일관되게 금지해 온 두 가지 구체적인 사용 사례에 있습니다.
현재 행정부의 "전쟁부(Department of War)" 리브랜딩 아래 펜타곤은 이러한 제한이 군사 작전에 대한 "거부권"에 해당한다고 주장합니다. 국방부 관리들은 윤리적 제약을 받지 않는 중국과 같은 적대국에 대해 우위를 유지하기 위해 기술의 "모든 합법적 사용"이 필요하다고 주장해 왔습니다.
Anthropic을 "공급망 위험"으로 분류한 것은 펜타곤을 훨씬 넘어서는 파급력을 가진 가혹한 경제적 조치입니다. 이 지정은 단순히 Anthropic과 국방부 사이의 직접 계약을 종료하는 것에 그치지 않고, 국방 산업 기반 전체에 전염 효과를 일으킵니다.
주요 국방 계약업체와 기술 파트너들(군사 계약을 수행하는 경우 AWS 및 Google Cloud와 같은 클라우드 제공업체 포함 가능)은 이제 자신의 정부 내 입지를 보존하기 위해 Anthropic과의 관계를 단절해야 한다는 법적 압박을 받게 되었습니다. 최근 기업 가치가 약 3,800억 달러로 평가되어 기업 공개(IPO)를 준비 중이던 Anthropic에게 이 조치는 순응을 강요하기 위해 설계된 실존적인 금융 위협을 의미합니다.
"이것은 보복적이고 징벌적입니다,"라고 아모데이는 기자들에게 말하며, 회사가 법정에서 이 지정에 이의를 제기할 의사가 있음을 시사했습니다. 법률 전문가들은 적대 국가의 하드웨어에 주로 적용되는 공급망 위험 체계를 정책적 이견을 이유로 미국 소프트웨어 기업에 적용하는 것은 전례가 없는 일이며, 상당한 사법적 정밀 조사를 받게 될 수 있다고 조언합니다.
이번 금지 조치는 국방 AI 분야에 즉각적인 공백을 만들었으며, 경쟁사들이 이를 빠르게 메우고 있습니다. 지정이 발표된 지 불과 몇 시간 만에 OpenAI는 더 광범위한 군사적 적용을 허용하는 조건에 합의하며 펜타곤과의 새로운 파트너십을 확인했습니다.
이러한 갈림길은 AI 산업의 중대한 분기점을 나타냅니다. 즉, 행정부의 "무제한 전쟁" 요구 사항에 엄격하게 영합하는 쪽과 독립적인 윤리적 거버넌스를 유지하려는 쪽으로 나뉘는 것입니다.
표: AI 국방 분열
| 계약업체 | 자율 무기에 대한 입장 | 대규모 감시에 대한 입장 | 펜타곤 상태 |
|---|---|---|---|
| Anthropic | 엄격히 금지됨 기술적 비신뢰성과 윤리적 위험을 근거로 제시함. |
엄격히 금지됨 시민의 자유 침해로 간주함. |
금지됨 "공급망 위험"으로 지정됨 |
| OpenAI | 허용됨 "합법적 사용" 프레임워크에 따름. |
허용됨 국방부 요구 사항에 맞춤. |
활성 파트너 2026년 2월 새 계약 체결 |
| Palantir | 완전 통합됨 치명적인 자율성(Lethal Autonomy)에 대한 오랜 지원. |
완전 통합됨 핵심 제품 기능임. |
활성 파트너 주요 국방 통합업체 |
아모데이의 방어는 현재 대규모 언어 모델(LLM, Large Language Models)의 기술적 현실에 크게 의존하고 있습니다. 도덕적 논쟁을 넘어, Anthropic은 기술이 살상 시나리오에서 인간을 배제(Out of the loop)할 준비가 되어 있지 않다고 단언합니다.
"우리는 전제주의적 적대 세력을 패배시키는 것을 믿습니다,"라고 아모데이는 분명히 했습니다. "하지만 환각을 일으키거나 자율 살상 체계로 쉽게 탈옥(Jailbroken)될 수 있는 시스템을 배치하는 것은 미국을 더 안전하게 만들지 않습니다. 그것은 새로운 혼돈의 매개체를 도입하는 것입니다."
이 "안전이 곧 안보"라는 주장은 진정한 애국심이란 아군 오사(Friendly fire), 의도치 않은 확대 또는 전쟁 범죄를 초래할 수 있는 미성숙한 기술의 배치를 막는 것을 포함한다는 입장입니다. 그러나 행정부는 이러한 신중함을 방해주의로 간주하며, "책임 있는 확장"을 미국의 군사 현대화를 늦추는 "워크(Woke, 깨어 있는 척하는)"식의 주저함을 뜻하는 완곡한 표현으로 해석합니다.
Anthropic의 현재 정부 계약에 대한 6개월의 단계적 종료 기간이 시작됨에 따라 업계는 위축 효과를 겪고 있습니다. 워싱턴에서 보내는 메시지는 분명합니다. AI 전쟁의 새로운 시대에서 순응은 필수이며, 윤리적 반대는 무거운 대가를 치른다는 것입니다.
Anthropic의 법적 대응은 21세기 결정적인 선례가 될 것으로 보입니다. 정부가 민간 미국 기업에 도덕적으로나 기술적으로 안전하지 않다고 판단하는 도구를 만들도록 강요할 수 있을까요? 아니면 "애국적" 혁신의 정의에 '아니오'라고 말할 권리가 포함되어 있을까요?
현재로선 다리오 아모데이와 Anthropic은 미국의 사법 시스템과 아마도 역사의 장기적인 심판이 즉각적인 군사적 유용성보다 자신들의 원칙 있는 절제를 가치 있게 여길 것이라 믿으며 레드라인을 고수하고 있습니다. 하지만 단기적으로 이 회사는 실리콘밸리를 굴복시키려는 연방 정부의 온갖 압박에 직면해 있습니다.