
기업 간의 경쟁을 초월하여 산업 전반에 걸친 이례적인 연대의 모습으로, 구글(Google)과 OpenAI의 직원들이 미국 국방부(U.S. Department of Defense)와의 고위험 대치 상황에 처한 앤스로픽(Anthropic)을 지원하기 위해 힘을 합쳤습니다. 2026년 2월 27일 금요일, 구글 딥마인드(Google DeepMind) 소속 300명 이상의 직원과 OpenAI 소속 60명 이상의 직원이 "우리는 분열되지 않을 것이다(We Will Not Be Divided)"라는 제목의 공개 서한에 서명하며, 각 사의 경영진에게 첨단 인공지능(Generative AI) 모델에 대한 무제한적 접근을 요구하는 펜타곤의 압박에 단호히 맞설 것을 촉구했습니다.
이 공동 행동은 인공지능의 군사화를 둘러싼 지속적인 논쟁에서 중대한 전환점이 되었습니다. 이는 윤리적 안전장치(ethical guardrails)를 유지하려는 프런티어 AI(frontier AI) 모델 개발자들과, 이러한 기술을 "전시 군비 경쟁"의 핵심 자산으로 간주하는 국방 관계자들 사이의 깊어지는 균열을 조명합니다. 펜타곤(Pentagon)이 준수를 강제하기 위해 국방물자생산법(Defense Production Act) 발동을 위협함에 따라, 기술 인력들은 자율 무기 및 국내 감시와 관련된 윤리적 "레드라인(red lines)"은 타협 불가능하다는 신호를 보내고 있습니다.
이 논란의 중심에는 자사의 클로드(Claude) 모델에 대한 "무제한 사용"을 요청하는 펜타곤의 요구를 수용하기 위해 서비스 약관 수정을 거부한 앤스로픽(Anthropic)이 있습니다. 다리오 아모데이(Dario Amodei) CEO가 이끄는 앤스로픽은 정부 계약에서 다음과 같은 두 가지 특정 금지 사항을 일관되게 유지해 왔습니다:
피트 헤그세스(Pete Hegseth) 국방장관이 대표하는 국방부는 앤스로픽에 이러한 특정 제한을 면제하고 "모든 합법적 목적"을 허용할 것을 요구한 것으로 알려졌습니다. 펜타곤은 불법 감시를 수행할 의도가 없다고 확언하면서도, "합법적" 사용을 제한하는 계약 문구가 작전상의 취약성을 초래하고 군사 역량에 대한 공급업체의 통제권이라는 위험한 선례를 남긴다고 주장합니다.
구글과 OpenAI 직원들의 공개 서한(open letter)은 앤스로픽의 입장을 명시적으로 지지합니다. "우리는 우리 리더들이 차이점을 내려놓고 단결하여 국방부의 현재 요구를 계속 거부하기를 바랍니다"라고 서한은 밝히고 있습니다. 서명자들은 정부의 압박 캠페인이 기업들을 서로 대립시킴으로써 업계의 윤리적 합의를 분쇄하려는 의도로 설계되었다고 주장합니다.
이 대치는 2026년 2월 말 펜타곤이 앤스로픽에 최후통첩을 보낸 것으로 알려지면서 크게 격화되었습니다. 금요일 마감 시한까지 준수하지 않을 경우 **국방물자생산법(DPA)**이 발동될 수 있습니다. 이는 대통령이 사기업에 국가 방위 계약을 우선시하도록 강제할 수 있는 냉전 시대의 법률입니다.
나아가, 국방 관계자들은 앤스로픽이 요구에 응하지 않을 경우 앤스로픽을 "공급망 위험(supply chain risk)"으로 규정하겠다고 위협했습니다. 이 지정은 통상적으로 특정 중국 통신 기업과 같이 미국 이익에 적대적인 것으로 간주되는 외국 기업에 적용되는 것으로, 앤스로픽의 연방 조달 참여를 사실상 차단하고 상업적 평판에 타격을 줄 수 있습니다.
공개 서한은 이러한 전술을 보복적인 것으로 비난합니다. "국방부는 앤스로픽이 레드라인을 고수하는 것에 대한 보복으로 국방물자생산법 발동을 위협하고 있습니다..."라고 본문은 기술합니다. 직원들은 펜타곤이 앤스로픽을 굴복시키는 데 성공한다면, 다음은 구글(Google)과 OpenAI로 시선을 돌려 표준화라는 미명 아래 남은 안전장치들을 제거할 것을 요구할 것이라고 경고합니다.
직원 서한의 핵심 주제는 펜타곤이 "분할 정복(divide and conquer)" 전략을 활용하고 있다는 비난입니다. 구글, OpenAI, 앤스로픽과 개별적으로 협상함으로써, 국방부는 죄수의 딜레마(prisoner's dilemma)를 조성하고 있습니다. 각 기업은 자신들이 윤리적 기준을 고수하는 동안 경쟁사가 굴복하여 수익성 높은 정부 계약을 따낼 것을 우려하게 됩니다.
"그들은 상대방이 굴복할 것이라는 공포로 각 회사를 분열시키려 하고 있습니다"라고 서한은 설명합니다. "그 전략은 우리 중 누구도 다른 쪽의 입장을 모를 때만 효과가 있습니다."
이러한 우려는 근거가 없는 것이 아닙니다. 보고서에 따르면 OpenAI와 구글은 이전에 "비기밀" 군사적 사용에 관한 협상에서 더 많은 유연성을 보여준 바 있습니다. 2024년 초, OpenAI는 사용 정책에서 "군사 및 전쟁"에 대한 명시적 금지 조항을 조용히 삭제하고 이를 보다 일반적인 "해악" 금지로 대체했습니다. 이는 표면적으로 군과의 사이버 보안 및 재난 구호 협력을 허용하기 위한 것이었습니다. 그러나 무제한적인 살상 자율성과 감시 역량에 대한 현재의 요구는 이러한 더 관대한 기업들의 인력들에게조차 도를 넘는 것으로 보입니다.
이 갈등의 지형을 이해하기 위해서는 군사 통합에 관한 주요 AI 연구소들의 현재 공식 입장을 비교하는 것이 필수적입니다.
표: 주요 AI 연구소 및 군사 정책 입장
| 기업 | 군사적 사용에 대한 핵심 입장 | 특정 "레드라인" | 펜타곤과의 관계 상태 |
|---|---|---|---|
| 앤스로픽(Anthropic) | 엄격한 조건부 협력 | 타협 불가능: 국내 감시 금지. 타협 불가능: 자율 살상 무기 금지. |
적대적: DPA 발동 및 "공급망 위험" 지정 위협에 직면. |
| OpenAI | 협력적 / 진화 중 | 일반적으로 자율 무기에 반대. 2024년에 "국가 안보" 사용을 허용하도록 정책 변경. |
적극적 협상 중: 샘 알트만(Sam Altman) CEO가 앤스로픽과 유사한 안전장치를 모색 중인 것으로 알려짐. |
| 구글(Google) | 신중함 / 내부 긴장 | AI 원칙 (2018): 인권을 침해하는 무기나 감시 금지. 주요 목적이 해악인 기술 금지. |
긴장 상태: 직원들이 리더십(제프 딘)에게 2018년의 약속을 지키도록 압박 중. |
| 마이크로소프트(Microsoft) | 전략적 파트너 | 고객(국방부)의 적법성에 부합. 기밀 모델을 위한 인프라 제공. |
통합됨: Azure/OpenAI 파트너십을 통해 국방 인프라에 깊이 내재됨. |
현재의 행동주의 물결은 2018년 구글의 "프로젝트 메이븐(Project Maven)" 논란과 직접적인 유사점을 갖습니다. 해당 기간 동안 수천 명의 구글 직원이 드론 영상 분석에 AI를 사용하는 국방부 계약에 항의하는 청원서에 서명했으며, 결국 회사가 계약을 만료시키고 무기용 구글 AI 사용을 금지하는 "AI 원칙(AI Principles)"을 발표하게 만들었습니다.
그러나 2026년의 지정학적 환경은 현저히 다릅니다. 글로벌 AI 경쟁의 격화와 라이벌 국가들로부터의 위협 인지로 인해, "주권 AI(sovereign AI)" 역량을 배치해야 한다는 압박이 거세졌습니다. "우리는 분열되지 않을 것이다" 서한은 기술 종사자들이 2018년의 윤리적 승리가 침식되고 있음을 예리하게 인식하고 있음을 시사합니다.
"이 서한은 이러한 압박에 맞서 공유된 이해와 연대를 구축하는 역할을 합니다"라고 직원들은 썼습니다. 이 연합에는 엔지니어, 연구원, 정책 담당 직원들이 포함되어 있으며, 이들은 전쟁에서의 AI 배치는 엄격한 인간의 책임성을 요구하며, 이는 완전 자율 시스템이 본질적으로 결여하고 있는 특징이라고 주장합니다.
기업 리더십의 반응은 엇갈리지만 압박이 효과가 있음을 나타냅니다. 서한이 공개된 후, OpenAI의 샘 알트만(Sam Altman) CEO가 직원들에게 자신 또한 앤스로픽과 유사한 레드라인을 포함하는 국방부와의 합의를 모색하고 있다고 언급했다는 보고가 나왔습니다. 이는 직원들이 요청한 "공동 전선"이 경영진 수준에서도 형성되고 있을 가능성을 시사합니다.
구글의 경우, 내부 압력은 구글 딥마인드의 수석 과학자인 제프 딘(Jeff Dean)을 향하고 있습니다. 100명 이상의 구글 직원이 서명한 별도의 내부 서한은 특히 그에게 구글이 앤스로픽의 입장을 약화시키지 않도록 보장할 것을 촉구했습니다.
구글과 OpenAI 직원들의 지지로 증폭된 앤스로픽과 펜타곤 사이의 대결은 기술 거버넌스 역사에서 중대한 국면을 나타냅니다. 이는 근본적인 질문을 던집니다: 강력한 AI가 어떻게 사용될지를 최종적으로 결정하는 것은 누구인가—자금을 지원하는 정부인가, 아니면 그 위험을 이해하는 제작자인가?
펜타곤이 국방물자생산법을 성공적으로 사용하여 앤스로픽을 강제한다면, 국가 안보 이익이 민간 부문의 윤리적 약속보다 우선한다는 선례를 남길 수 있습니다. 반대로, 기술 종사자들의 "공동 전선"이 유지된다면, 군대로 하여금 전쟁에서조차 인공지능의 배치에는 한계가 있어야 함을 받아들이게 할 수 있습니다.
금요일 마감 시한이 지나고 업계가 펜타곤의 다음 행보를 기다리는 가운데, 360명 이상의 직원들이 보여준 연대는 AI 개발의 인간적 요소가 여전히 강력한 정치적 힘으로 남아 있음을 상기시켜 줍니다.
이 보고서는 2026년 3월 1일까지 발생한 사건을 바탕으로 작성되었습니다.