
상업적 AI 발전과 윤리적 거버넌스 사이의 섬세한 균형은 이번 주말 OpenAI의 로보틱스 및 소비자 하드웨어 책임자인 **케이틀린 칼리노브스키(Caitlin Kalinowski)**가 사임하면서 지진과 같은 충격에 직면했습니다. 미국 국방부(DoD)와 OpenAI의 깊어지는 유착 관계에 대한 대응임을 명시적으로 밝힌 그녀의 퇴사는 프런티어 모델의 군사화와 관련하여 인공지능(Artificial Intelligence) 커뮤니티 내에서 커지는 균열을 부각시킵니다.
Meta의 AR 안경 부문을 이끈 후 2024년 말 OpenAI에 합류한 하드웨어 베테랑인 칼리노브스키는 회사의 최근 펜타곤 협약을 "거버넌스 실패"라고 규정했습니다. 그녀의 사임은 경쟁사인 Anthropic이 자율 무기(autonomous weapons) 및 국내 감시와 관련된 안전 레드라인에 대한 타협을 거부함에 따라 OpenAI가 기밀 계약을 따냈다는 보고가 나온 지 불과 며칠 만에 이루어졌습니다.
이후 소셜 미디어와 업계 포럼에서 널리 퍼진 성명에서 칼리노브스키는 거침없이 말을 쏟아냈습니다. 그녀는 OpenAI의 새로운 국방 협약에서 설정된 가드레일이 "성급하게" 만들어졌으며 오용을 방지하는 데 필요한 법적 구속력이 부족하다고 주장했습니다.
"우리는 펜타곤과의 협약이 실행 가능한 경로를 만든다고 믿지만... 정치적 풍향의 변화를 견뎌낼 수 있는 방식으로 정의된 가드레일이 없다면 이는 거버넌스 실패입니다."라고 칼리노브스키는 언급했습니다. 그녀의 주요 우려는 리더십에 의해 수정되거나 면제될 수 있는 *계약상 정책(contractual policy)*과 강력한 기술적/법적 금지 사항(hard technical/legal prohibitions) 사이의 구분에 집중된 것으로 보입니다.
이러한 이탈은 OpenAI의 로보틱스 야망에 상당한 타격을 의미합니다. 칼리노브스키는 멀티모달 모델(multimodal models)을 하드웨어 장치에 통합하는 임무를 맡아 회사의 물리적 AI 복귀를 진두지휘하기 위해 영입되었습니다. 그녀의 재임 기간은 짧았지만, OpenAI의 소프트웨어 지배력과 물리적 세계 사이의 중요한 가교로 여겨졌습니다. 그녀의 퇴사는 많은 최고 수준의 엔지니어들에게 자신들의 작업이 미치는 윤리적 함의가 타협할 수 없는 우선순위로 남아 있음을 시사합니다.
이 사임의 맥락은 미국 국방부(DoD)가 개입된 광범위한 지정학적 작전과 떼려야 뗄 수 없습니다. 2026년 2월 말, 전직 OpenAI 임원들이 설립한 AI 안전 스타트업인 Anthropic과 펜타곤 사이의 협상은 결렬되었습니다.
Anthropic은 "Claude" 모델을 살상용 자율 무기(autonomous weapons) 시스템이나 대량 감시에 사용하는 것을 승인하지 않았으며, 모든 정부 계약에서 엄격하고 불변하는 조항을 요구한 것으로 알려졌습니다. 업계에 충격을 준 행보로, DoD는 이후 Anthropic을 "공급망 리스크(supply-chain risk)"로 분류하여 특정 국방 계약에서 이들을 사실상 블랙리스트에 올렸습니다.
OpenAI는 이 공백을 메우기 위해 신속하게 움직였습니다. CEO 샘 알트먼(Sam Altman)은 DoD의 기밀 네트워크 내에 OpenAI 모델을 배포하기로 합의했다고 발표했습니다. 알트먼은 이번 계약이 "자율 무기의 독립적 지휘" 금지를 언급하며 OpenAI의 사명과 일치한다고 강조했지만, 칼리노브스키와 같은 비판자들은 특히 역사적으로 군사적 맥락에서 확대 해석되어 온 "휴먼 인 더 루프(human in the loop)"의 정의와 관련하여 해당 문구가 너무 많은 모호성을 허용한다고 주장합니다.
두 선도적인 AI 연구소 간의 전략적 차이는 그 어느 때보다 극명해졌습니다. 다음 표는 DoD가 Anthropic에서 OpenAI로 방향을 선회하게 만든 주요 차이점을 요약합니다.
표 1: Anthropic 대 OpenAI 국방 계약 입장
| 기능 | Anthropic의 입장 | OpenAI의 협약 |
|---|---|---|
| 자율 무기 | 모든 살상용 애플리케이션에 대한 엄격하고 타협 불가능한 금지 | "인간의 책임" 및 정책적 보호 조치 하에 허용 |
| 감시 | 대규모 국내 감시(domestic surveillance) 도구 활성화 거부 | "현행법"에 의해 제한됨 (입법 변화에 따름) |
| 계약 성격 | 구속력 있는 기술적 제한 요구 | "계층화된" 정책 및 소프트 거버넌스에 의존 |
| DoD 결과 | "공급망 리스크" 분류 / 계약 취소 | 기밀 배포 확보 / "전략적 파트너" 지위 |
칼리노브스키는 혼자가 아닙니다. 그녀의 사임은 OpenAI 인력의 일부와 광범위한 사용자 층을 자극하여 "QuitGPT" 운동의 재점화를 촉발했습니다.
OpenAI의 내부 채널에는 회사가 비영리적 뿌리에서 너무 멀리 벗어났다는 우려가 쏟아지고 있는 것으로 알려졌습니다. 2024년 1월 OpenAI가 사용 정책에서 "군사 및 전쟁"에 대한 명시적 금지 조항을 삭제했을 때, 리더십은 이를 사이버 보안과 같은 "국가 안보" 애플리케이션을 허용하기 위한 필수적인 업데이트라고 설명했습니다. 그러나 기밀 작전이 포함되고 안전 중심의 경쟁사를 대체하는 이번 계약은 직원들에게 회사의 원래 헌장에 대한 근본적인 배신으로 간주되고 있습니다.
특히 로보틱스 팀의 경우 그 영향은 매우 큽니다. 로보틱스는 AI가 물리적인 힘을 행사하는 인터페이스입니다. 엔지니어들 사이의 두려움은 가정용 로봇이 빨래를 개는 것을 돕도록 훈련된 동일한 모델이 이번 새 협약에 따라 자율 드론이나 이족 보행 초병을 유도하는 용도로 재사용될 수 있다는 것입니다. 단, 인간 운영자가 최종 조치에 대해 명목상 "책임"을 진다는 조건 하에서 말입니다.
이번 주의 사건들은 AI 산업의 전환점을 의미합니다. 우리는 가장 강력한 프런티어 모델에 대한 접근이 상업적 또는 윤리적 망설임보다 우선시되어 국가 안보의 문제가 되는 "군사-산업-AI 복합체(Military-Industrial-AI Complex)"의 고착화를 목격하고 있습니다.
케이틀린 칼리노브스키(Caitlin Kalinowski)의 사임은 단순한 인사 이동 그 이상입니다. 이는 전쟁에서의 AI 정상화에 대한 항의입니다. OpenAI가 펜타곤의 인프라에 더 깊숙이 통합됨에 따라, 그녀가 지적한 "거버넌스 실패"는 계속해서 논쟁의 중심이 될 것입니다. 이제 업계는 인공 일반 지능(Artificial General Intelligence, AGI)을 달성하기 위한 경쟁 속에서 유익한 도구와 전쟁 무기 사이의 경계가 점점 더 모호해지고 있다는 불편한 현실과 씨름해야 합니다.