
인공지능(Artificial Intelligence, AI) 기업과 정부 이익 사이의 점점 더 복잡해지는 관계를 조명하는 전개 속에서, Anthropic의 클로드(Claude) 챗봇이 미국 앱스토어(App Store) 무료 차트에서 2위로 급부상했습니다. 2026년 2월 28일 주말 동안 발생한 이 급격한 상승은 역설적이게도 펜타곤(Pentagon)과의 심각한 갈등과 그에 따른 백악관의 연방 기관 기술 사용 금지 지침 직후에 발생했습니다.
이러한 급증으로 클로드는 OpenAI의 ChatGPT 바로 뒤를 잇고 Google의 Gemini를 앞지르게 되었으며, 이는 기업 윤리와 국가 압력에 대한 저항이 비록 파격적이긴 하지만 강력한 마케팅 엔진으로 작용할 수 있다는 소비자 심리의 변화를 시사합니다. 업계 관찰자들에게 이 순간은 플랫폼을 억압하거나 소외시키려는 시도가 궁극적으로 그 가시성과 매력을 증폭시키는 "스트라이샌드 효과(Streisand Effect)"의 중추적인 사례 연구를 나타냅니다.
이 시장 혼란의 촉매제는 Anthropic과 국방부(DoD) 사이의 이해관계가 얽힌 협상 결렬이었습니다. 이 사안에 정통한 소식통은 펜타곤이 특정 "안전 가드레일"을 포기한다는 조건으로 Anthropic의 프런티어 모델을 국방 워크플로우에 통합하려 했다고 확인했습니다. 구체적으로, 국방 관계자들은 인공지능을 "모든 합법적인 목적"으로 사용할 수 있는 권한을 요구한 것으로 알려졌는데, Anthropic 지도부는 이 광범위한 분류가 대규모 국내 감시와 완전 자율 살상 무기 시스템의 가동으로 이어질 수 있다는 점을 우려했습니다.
Anthropic의 CEO인 Dario Amodei는 회사의 헌법적 AI(Constitutional AI) 헌장과 안전 프로토콜을 무시하는 요구에는 "양심상" 응할 수 없다고 밝히며 이러한 조건을 공개적으로 거부했습니다. 워싱턴의 대응은 신속하고 징벌적이었습니다. 금요일까지 행정부는 Anthropic을 "공급망 리스크(supply chain risk)"로 지정했으며(이는 보통 외국 적대 세력이나 보안이 뚫린 공급업체에 적용되는 분류입니다), 이 스타트업과의 모든 연방 계약 중단을 명령했습니다.
이러한 지정은 전통적으로 국방 계약업체에 치명적인 타격을 주겠지만, Anthropic의 주요 가치는 소비자 및 기업용 소프트웨어에 있습니다. 트럼프 대통령이 회사 경영진을 "독선적"이라고 비판하며 특징 지어진 이 분쟁의 공개적인 성격은, 개인 정보 보호와 인공지능의 무분별한 군사화를 우려하는 사용자층을 결집시킨 것으로 보입니다.
이후의 다운로드 급증은 일반 대중의 상당수가 Anthropic의 거부를 불복종이 아닌 신뢰성의 특징으로 보고 있음을 시사합니다. 데이터 프라이버시 우려가 최우선인 시대에, 윤리적 경계를 보호하기 위해 수익성 높은 정부 계약을 거부하는 인공지능 기업의 서사는 깊은 공감을 불러일으켰습니다.
Sensor Tower의 분석에 따르면 Claude는 2월 초만 해도 상위 20위권 밖에 머물러 있었습니다. 그러나 금지 뉴스 및 펜타곤과 Anthropic 경영진 사이의 텔레비전 중계 논쟁 이후, 다운로드는 48시간 만에 300% 이상 가속화되었습니다.
이 현상은 인공지능 산업의 경제 모델에 대한 중요한 질문을 던집니다. 역사적으로 "정렬(alignment)"은 모델 행동에 관한 기술적 용어로 논의되어 왔습니다. 이번 사건은 정렬을 브랜드 자산으로 재정의합니다. 즉, 국가의 과도한 간섭에 맞서 사용자의 가치와 정렬하는 것입니다. 사용자들은 저장 공간으로 투표하며, 정부 파트너십에 더 순응적인 접근 방식을 취한 경쟁사보다 "저항적인" 인공지능을 효과적으로 선택하고 있습니다.
Anthropic의 주요 경쟁자인 OpenAI와의 대조는 이보다 더 극명할 수 없습니다. 백악관이 Anthropic에 대한 지침을 발표한 지 몇 시간 만에, OpenAI가 기밀 군사 네트워크에 인공지능 기능을 공급하기 위해 Pentagon과 새로운 계약을 체결했다는 보고가 나왔습니다.
이러한 분기점은 시장에서 명확한 이분법을 만들어냈습니다.
OpenAI가 선점자 우위와 대규모 기존 사용자 기반 덕분에 앱스토어 1위를 유지하고 있지만, 클로드의 갑작스러운 근접 추격은 "윤리적 AI" 시장 세그먼트가 이전에 추정했던 것보다 훨씬 더 크다는 것을 시사합니다.
현재 상위 3개 인공지능 애플리케이션의 순위는 작용하고 있는 경쟁 역학을 보여줍니다. 다음 표는 2026년 3월 1일 기준 미국 앱스토어 내 주요 인공지능 챗봇의 상태를 요약한 것입니다.
앱스토어 AI 순위 (미국 무료 차트)
| 순위 | 앱 이름 | 주요 배경 및 최근 동인 |
|---|---|---|
| 1 | ChatGPT (OpenAI) | 시장 리더십 유지; 최근 기밀 네트워크 배포를 위한 국방부(DoD) 계약 확대 확보. |
| 2 | Claude (Anthropic) | 상위 20위권에서 급상승; "공급망 리스크" 지정 및 감시 조항에 대한 공개적 거부로 인해 추진력을 얻음. |
| 3 | Google Gemini | 안정적인 성장 유지; 안드로이드(Android) 및 워크스페이스(Workspace) 생태계와의 깊은 통합 활용. |
"클로드 급증(Claude Surge)"은 규제 당국과 정책 입안자들의 서사를 복잡하게 만듭니다. 준수를 강요하기 위해 시장 배제 전술("공급망 리스크" 지정)을 사용하려던 행정부의 시도는 소비자 영역에서 역효과를 냈습니다. 이는 정부의 영향력을 제한합니다. 특정 기업을 금지하는 것이 오히려 그 기업을 더 인기 있게 만든다면, 국가는 규제 이외의 주요 채찍을 잃게 됩니다.
나아가, 이 대치는 현재 인공지능 안전의 "자발적 약속" 시대가 얼마나 취약한지 보여줍니다. Anthropic의 거부는 자발적 가드레일이 강력한 고객의 요구와 충돌하기 전까지만 의미가 있음을 증명합니다. Anthropic은 타협하지 않음으로써 안전 약속이 단순한 마케팅 문구가 아니라 구속력 있는 제약 조건이라는 선례를 남겼습니다.
법률 전문가들은 Anthropic이 법정에서 "공급망 리스크" 지정에 이의를 제기할 것이며, autonomous weapons 개발 거부가 안보 리스크에 해당하지 않는다고 주장할 것으로 예측합니다. 이러한 법적 공방의 결과는 기술 기업이 보복성 블랙리스트에 직면하지 않고 윤리적 근거에 따라 정부 업무를 거부할 권리를 정의하게 될 것입니다.
혼란스러웠던 한 주의 먼지가 가라앉으면서 시장이 보내는 메시지는 명확합니다. 윤리는 경쟁 우위의 차별화 요소라는 것입니다. 펜타곤의 수익보다 안전 헌법을 우선시한 Anthropic의 도박은 현재로서는 사용자의 관심과 신뢰라는 화폐로 보상을 받았습니다. 이 모멘텀이 즉각적인 뉴스 사이클을 넘어 유지될 수 있을지는 지켜봐야 하겠지만, 클로드가 2위로 올라선 것은 인공지능 기업들이 향후 10년의 도덕적 복잡성을 어떻게 헤쳐 나가는지 대중이 면밀히 지켜보고 있다는 강력한 신호입니다.