
OpenAI는 미국 국방부(DoD)와의 계약 합의를 공식적으로 수정하여, 대규모 국내 감시 및 완전 자율 살상 무기 개발에 자사의 인공지능 모델을 사용하는 것을 명시적으로 금지했다. 화요일 샘 알트먼(Sam Altman) CEO가 확인한 이 조치는 국가 안보 맥락에서 생성형 AI(Generative AI)의 윤리적 배치에 대한 대중의 철저한 조사와 내부 논의가 심화되는 가운데 이루어졌다.
이 전략적 전환은 샌프란시스코에 본사를 둔 AI 선도 기업에게 중요한 순간이다. 이 기업은 민주적 국방 이니셔티브를 지원하는 것과 설립 당시의 안전 우선 원칙을 준수하는 것 사이에서 섬세한 균형을 유지해 왔다. OpenAI는 이러한 제한 사항을 펜타곤(Pentagon) 계약에 직접 명문화함으로써 개인 정보 보호 옹호자, 시민 자유 단체, 그리고 자사 직원들의 반발을 잠재우는 동시에 미국 정부와의 협력 관계를 유지하는 것을 목표로 한다.
계약 수정은 실리콘밸리 기술 기업과 정부 기관 간의 긴장이 고조된 시기에 뒤따라 나왔다. 올해 초 OpenAI와 펜타곤의 심화된 협력 소식이 처음 알려졌을 때, 회사의 강력한 대규모 언어 모델(LLM)과 추론 엔진이 미국 시민에 대한 침해적 모니터링이나 전쟁에서의 킬 체인(kill chain) 자동화로 전용될 수 있다는 우려가 제기되었다.
비평가들은 물류, 코드 생성 또는 데이터 합성을 위해 설계된 도구가 영장이나 감독 없이 방대한 양의 개인 데이터를 처리할 수 있는 감시 장치에 의도치 않게 동력을 공급할 수 있는 '임무 범위 확대(mission creep)'의 가능성을 지적했다. 이러한 우려에 대응하여 수정된 합의에는 이제 이러한 고위험 애플리케이션을 구체적으로 제외하는 구속력 있는 조항이 포함된다.
샘 알트먼은 워싱턴 D.C.에서 열린 기술 정책 포럼에서 이번 수정이 선제적인 조치라고 강조했다. "우리는 국방을 포함하여 AI 분야에서 미국의 리더십이 필요하다고 믿는다"라고 알트먼은 밝혔다. "하지만 그 리더십은 도덕적 기반 위에 있어야 한다. 우리는 우리의 도구가 중요한 생사 결정 시나리오에서 인간을 대체하거나 시민의 프라이버시 권리를 침해하는 대신, 인간 의사 결정자에게 권한을 부여하도록 보장하기 위해 합의를 수정하고 있다."
합의 변경은 단순히 용어상의 문제가 아니다. 이는 OpenAI의 API 및 기업용 솔루션이 국방부 인프라 내에서 배치되는 방식을 제한하는 운영 가드레일을 도입한다. 수정 사항은 두 가지 주요 축인 국내 프라이버시 보호와 자율 살상 행위 금지에 초점을 맞추고 있다.
다음 표는 계약 언어 및 운영 범위의 구체적인 변화를 상세히 설명한다.
Table: OpenAI-Pentagon Contract Amendment Overview
| 카테고리 | 이전 계약 범위 | 새로운 명시적 제한 사항 |
|---|---|---|
| 국내 감시 | 일반적인 데이터 분석 및 합성 허용 | 감시 목적으로 대규모 국내 데이터 세트를 분석하는 것을 엄격히 금지 |
| 살상용 자율성 | "군사 및 전쟁" 사용에 대해 모호함 | 완전 자율 살상 무기 시스템을 제어하기 위한 사용 금지 |
| 인간 감독 | 중요한 과업에 대해 인간의 개입(human-in-the-loop) 함축 | 모든 운동학적(kinetic) 또는 고위험 결정에 대해 의무적인 인간 승인 필요 |
| 데이터 보존 | 표준 기업 보존 정책 | 민감한 민간 데이터에 대한 향상된 데이터 삭제 프로토콜 |
| 제3자 액세스 | 승인된 국방 계약업체에 개방 | 하청업체가 윤리적 지침을 우회하는 것을 방지하는 제한된 액세스 |
이러한 경계를 설정함으로써 OpenAI는 국방 계약에 대한 새로운 업계 표준을 세우려 시도하며, AI 기업이 견제되지 않는 국가 권력의 통로가 되지 않고도 국가의 이익을 지원할 수 있음을 시사한다.
이번 수정안은 AI 윤리 분야에서 가장 논쟁적인 문제 중 하나인 살상용 자율 무기 시스템(LAWS) 개발을 다룬다. 미국 군대는 무력 사용 시 인간의 판단을 요구하는 정책을 유지해 왔지만, 고급 AI 계획 및 추론 기능의 통합으로 인해 소프트웨어가 결국 인간의 감독을 앞지를 수 있다는 공포가 제기되었다.
자율 무기에 자사 기술을 사용하는 것을 명시적으로 금지하기로 한 OpenAI의 결정은 '인간의 개입(human-in-the-loop)' 원칙과 일치한다. 이 원칙은 살상력 배치에 대해 항상 인간이 책임을 져야 한다고 주장한다. OpenAI는 이를 계약상으로 강제함으로써 GPT-5의 최신 버전이나 그 추론 후속 모델과 같은 자사 모델이 지원 기능에만 엄격하게 사용되도록 보장한다. 이러한 기능에는 직접적인 전투 참여가 아닌 물류 계획, 사이버 보안 방어, 코드 분석 및 정보 보고서 합성이 포함된다.
이 차이점은 Creati.ai 독자들이 이해하는 데 중요하다. 국방에서 생성형 AI의 효용성은 무기를 훨씬 뛰어넘어 광범위하다. 펜타곤은 이러한 도구를 사용하여 레거시 소프트웨어 시스템을 현대화하고, 관료적 프로세스를 간소화하며, 오픈 소스 인텔리전스를 분석한다. OpenAI의 수정안은 이러한 고가치의 비살상 사용 사례를 보존하는 동시에 대중의 공포를 유발하는 '레드 라인' 애플리케이션을 차단한다.
OpenAI의 이러한 행보는 다른 주요 국방 계약업체와 AI 제공업체들이 유사한 투명성 조치를 채택하도록 압박을 가할 가능성이 높다. 팰런티어(Palantir), 구글 딥마인드(Google DeepMind) 및 신흥 국방 기술 스타트업들은 군사적 관여에 대한 접근 방식이 서로 다르다.
수년 동안 구글은 내부 직원의 행동주의로 고심해 왔으며, 특히 '메이븐 프로젝트(Project Maven)' 논란으로 인해 특정 드론 비디오 분석 계약에서 철수하게 되었다. 반면, 팰런티어는 서구의 국방 파트너로서의 역할을 거리낌 없이 받아들였다. OpenAI는 미국 국방부를 지원하면서도 뚜렷한 윤리적 주권을 유지하는 '중도'를 개척하려 노력하고 있다.
업계 분석가들은 이번 수정안이 실제로 OpenAI의 장기적인 입지를 강화할 수 있다고 제안한다. 대규모 감시 우려를 정면으로 다룸으로써 회사는 규제 위험을 완화하고 더 넓은 대중과의 신뢰를 구축한다. 이러한 '신뢰 자본'은 회사가 경제의 모든 부문에 침투하는 점점 더 유능한 모델을 계속 출시함에 따라 필수적이다.
이러한 새로운 계약 조건의 성공적인 구현은 검증과 감독에 크게 좌우된다. OpenAI가 펜타곤의 모델 사용을 어떻게 감사할 것인지에 대한 의문이 남아 있다. 일반적인 기업 고객과 달리 국방부는 높은 수준의 기밀 분류 하에 운영되므로 외부 감사가 어렵다.
샘 알트먼은 OpenAI의 허가된 기술 전문가와 국방부의 윤리 책임자로 구성된 합동 감독 위원회를 설치하여 사용 로그를 검토하고 새로운 금지 사항의 준수 여부를 확인할 것이라고 밝혔다. 이 메커니즘은 AI 모델의 구체적인 적용이 보안 허가 계층에 의해 가려지는 '블랙박스' 문제를 방지하기 위해 설계되었다.
나아가, 이러한 발전은 지정학적 규범을 형성하는 데 있어 민간 기술 기업의 진화하는 역할을 강조한다. 전쟁 시 AI를 규제하는 포괄적인 국제 조약이 부재한 상황에서, 서비스 약관과 상업적 계약이 군사적 AI의 확산을 규제하는 사실상의 법률이 되고 있다.
OpenAI의 펜타곤 계약 수정 결정은 AI 산업의 성숙을 나타낸다. 이는 엄청난 이익과 심각한 해를 모두 끼칠 수 있는 인공지능의 이중 용도 특성이 단순히 모호한 윤리 지침 그 이상을 필요로 한다는 것을 인정하는 것이며, 구속력 있는 법적 문구가 필요함을 의미한다.
AI 커뮤니티에 있어 이것은 기술과 국가 권력의 피할 수 없는 교차점을 어떻게 탐색해야 하는지에 대한 사례 연구 역할을 한다. 대규모 감시 및 자율 살상에 대해 단호한 선을 그음으로써, OpenAI는 국방 부문과의 협력이 시민 자유 원칙의 포기를 필요로 하지 않는다는 것을 증명하려 하고 있다. 기술이 계속 가속화됨에 따라 이러한 '종이 가드레일'의 내구성이 시험받게 되겠지만, 현재로서는 책임 있는 혁신에 대한 중요한 약속으로 남아 있다.