
워싱턴 D.C. — 실리콘밸리의 윤리적 AI 운동과 미국 군부 사이의 긴장이 한계점에 도달했습니다. Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 이번 주 후반으로 예정된 피트 헤그세스(Pete Hegseth) 국방장관과의 중요한 회의를 위해 펜타곤으로 소환되었습니다. 이번 회담은 최근 행정명령을 통해 "전쟁부(Department of War)"로 명칭을 변경한 국방부(DoD)가 Anthropic을 "공급망 리스크(supply chain risk)"로 지정하겠다고 위협하고 있다는 보고가 나온 가운데 이루어졌습니다. 이러한 분류는 사실상 이 회사를 연방 계약에서 블랙리스트에 올리고, 주요 국방 기업들이 Claude의 제작자와 관계를 끊도록 강요하게 될 것입니다.
갈등의 중심에는 군사적 용도를 위해 Anthropic이 자사의 "헌법적 AI(Constitutional AI)" 가드레일을 완화하는 것을 거부한 사건이 있습니다. 펜타곤은 "적법한 목적"이라고 판단되는 사항에 대해 생성형 AI(Generative AI)에 대한 "무제한" 접근을 요구하고 있지만, Anthropic은 자율 무기 타겟팅 및 국내 감시 능력과 관련된 특정 요청을 차단한 것으로 알려졌습니다.
Anthropic을 "공급망 리스크(supply chain risk)"로 분류하겠다는 위협은 정부와 민간 AI 부문 관계에서 전례 없는 긴장 고조를 의미합니다. 역사적으로 적대 국가나 보안이 뚫린 업체(카스퍼스키 랩이나 화웨이 등)를 위해 유보되었던 이 명칭은 Anthropic에 치명적인 상업적 결과를 초래할 것입니다.
협상에 정통한 소식통에 따르면 헤그세스 국방장관은 기업의 과도한 권한 행사라고 판단되는 부분에 대해 좌절감을 느끼고 있습니다. 펜타곤의 입장은 일단 기술이 조달되면 그 "적법한 사용"은 민간 기업의 서비스 약관이 아니라 통수권자와 의회에 의해 결정된다는 것입니다.
지정이 확정되면 즉각적인 분리가 시작될 것입니다:
이번 대립의 기폭제는 2026년 1월에 수행된 기밀 작전으로 보입니다. *월스트리트 저널(The Wall Street Journal)*과 *악시오스(Axios)*의 보도에 따르면, 미국 특수작전 부대는 니콜라스 마두로 전 베네수엘라 대통령을 생포한 작전 중 실시간 정보 분석을 위해 팔란티어의 AIP를 통해 제공된 Claude의 맞춤형 버전을 활용했습니다.
작전은 성공적인 것으로 간주되었지만, Anthropic 경영진은 자사 모델의 구체적인 활용 방식에 대해 당혹감을 느낀 것으로 전해졌습니다. 그들은 이것이 "물리적 군사 행동(kinetic military action)" 및 "정치적 개입(political intervention)"에 관한 보편적 사용 표준(Universal Usage Standards)을 위반했다고 주장했습니다. Anthropic 엔지니어들이 향후 유사한 사용을 방지하기 위해 모델에 패치를 시도하자, 펜타곤 관계자들은 이 조치를 국가 안보 작전에 대한 방해 행위로 간주했습니다.
에밀 마이클(Emil Michael) 국방부 연구공학 차관은 이번 주 초 회사의 입장을 공개적으로 비판했습니다. "의회는 법안을 작성하고, 대통령은 서명하며, 기관은 이를 실행합니다"라며, 마이클 차관은 "민간 소프트웨어 업체가 미국 군부의 교전 수칙을 규정하는 것은 민주적이지 않습니다. 가드레일은 필요하지만, 기업의 홍보가 아닌 전투 수행에 맞춰 조정되어야 합니다"라고 밝혔습니다.
Anthropic과의 균열은 다른 AI 거대 기업들과 펜타곤의 긴밀해지는 관계와 극명한 대조를 이룹니다. 새로운 "AI 가속화 전략"에 따라 전쟁부(Department of War)는 살상 자율성 및 감시와 관련하여 마찰이 적은 모델들을 통합하기 시작했습니다.
표 1: 주요 AI 제공업체별 군사 통합 및 정책 입장
| 회사 | 주력 모델 | 군사 통합 상태 | 주요 정책 차이점 |
|---|---|---|---|
| Anthropic | Claude 3.5 Opus | 위험 (검토 중) | 엄격한 "헌법적 AI(Constitutional AI)"는 자율 무기 및 국내 감시를 금지함. 치명적 오류에 대한 책임 면제를 거부함. |
| xAI | Grok 3 | 활성 (GenAI.mil 파트너) | "미국 우선주의(America First)" 정책 정렬. 국가 안보 이익을 위한 무제한 사용을 촉진함. |
| OpenAI | GPT-5 | 활성 (시범 단계) | "국가 안보" 애플리케이션을 허용하도록 사용 정책 수정. 무기 개발 금지는 유지하되 운영 분석은 허용함. |
| Gemini Ultra | 활성 (프로젝트 메이븐) | 물류 및 사이버 국방에 깊이 통합됨. 윤리적 우려 완화를 위해 "인간 개입(human-in-the-loop)" 시스템에 집중함. |
이 대립의 핵심에는 근본적인 철학적 갈등이 자리 잡고 있습니다. Anthropic은 AI 안전이라는 전제 하에 설립되었으며, 모델을 유익하고 무해하며 정직하게 훈련시키기 위해 "헌법"을 활용합니다. 다리오 아모데이(Dario Amodei)는 정렬되지 않은 AI가 초래할 "파멸적 위험"에 대해 자주 경고해 왔으며, 특히 AI가 생물학 무기나 사이버 공격의 진입 장벽을 낮출 가능성을 언급했습니다.
하지만 전쟁부는 "제2차 냉전" 시대에 스스로 부과한 윤리적 장애는 일방적인 무장 해제와 다름없다고 주장합니다. 중국과 같은 적대국이 공격적으로 AI를 사살 사슬(kill chains)에 통합하고 있는 상황에서, 헤그세스 장관의 독트린은 속도와 치사율을 강조합니다. 펜타곤의 "AI 우선 전투 부대" 구상은 드론 피드를 처리하고, 타겟팅 솔루션을 생성하며, "이념적 제약" 없이 사이버 공격을 수행할 수 있는 모델을 요구합니다.
아모데이와 헤그세스 사이의 다가오는 회의는 논쟁적일 것으로 예상됩니다. 분석가들은 세 가지 가능한 결과를 예측합니다:
더 넓은 AI 산업에 있어 이번 회의의 결과는 결정적인 선례가 될 것입니다. 이는 "AI 안전"이 기술 배포의 지배적인 원칙으로 남을 것인지, 아니면 국가 안보의 필요성이 결국 실리콘밸리의 윤리적 헌법보다 우선하게 될 것인지를 결정할 것입니다.