
이번 주 뉴욕이 프런티어 모델(Frontier model) 규제 영역에 본격적으로 진입하면서 미국의 인공지능(AI, Artificial Intelligence) 거버넌스 지형이 결정적으로 변화했습니다. 책임감 있는 AI 안전 및 교육법(RAISE Act, Responsible AI Safety and Education Act)의 제정과 함께, 뉴욕은 캘리포니아와 손을 잡고 세계에서 가장 진보된 AI 시스템을 위한 엄격한 주 단위 안전 프레임워크를 구축하게 되었습니다. 이러한 움직임은 정체된 연방 규제 프로세스로 인해 생긴 공백을 메우기 위해, 미국 내 최대 규모의 두 기술 경제권이 주도하는 사실상의 국가 표준이 출현했음을 시사합니다.
AI 업계에 전달되는 메시지는 명확합니다. 프런티어 모델에 대한 자발적인 자율 규제의 시대가 저물고 있다는 것입니다. 개발자들이 작년 말 서명된 캘리포니아의 상원 법안 53(SB 53, Senate Bill 53)의 영향에 대응하고 있는 가운데, 뉴욕의 RAISE Act는 이와는 약간 다른 또 하나의 준수 의무 계층을 추가했습니다. 캐시 호컬(Kathy Hochul) 주지사는 두 주 사이의 "조화(alignment)"를 강조해 왔으나, 뉴욕 법안의 미세한 차이는 주요 AI 연구소들이 상당한 전략적 조정을 필요로 하는 복잡한 준수 환경을 조성합니다.
RAISE 법(S6953B/A6453B)은 $10^{26}$ 부동 소수점 연산(FLOPs)의 컴퓨팅 임계값으로 정의된 "프런티어 모델"에 명확히 초점을 맞추고 있습니다. 이 높은 기준은 현재 GPT-4, Claude 3, Gemini Ultra의 후속 모델과 같이 업계 거물들이 개발한 가장 강력한 시스템만을 포함합니다. 특정 기술 계층을 목표로 함으로써, 뉴욕은 광범위하고 위험도가 낮은 AI 생태계의 혁신을 저해하지 않으면서도, 사이버 공격 지원이나 생물 무기 제조와 같은 AI의 잠재적인 치명적 위험을 완화하는 것을 목표로 합니다.
새로운 법에 따라 대상 모델의 개발자는 엄격한 안전 및 투명성 프로토콜 세트를 준수해야 합니다. 이 법안은 기업들이 자신의 모델이 중대한 피해를 입히는 것을 방지하기 위해 "합리적인 주의(reasonable care)"를 기울일 것을 의무화합니다. 여기에는 엄격한 배포 전 테스트, 모델 도난을 방지하기 위한 사이버 보안 보호 장치 구현, 모델이 위험하게 작동할 경우 즉시 종료할 수 있는 능력(흔히 "킬 스위치(kill switch)" 요건으로 불림) 등이 포함됩니다.
결정적으로, RAISE 법은 뉴욕주 금융서비스국(DFS, Department of Financial Services) 내에 전담 감독 사무국을 설치합니다. 이 사무국은 프런티어 모델 개발자를 등록하고, 연례 준수 인증서를 검토하며, 법령의 광범위한 안전 의무를 해석하는 규정을 공포할 권한을 갖습니다. 금융 부문에서 공격적인 집행으로 알려진 규제 기관인 DFS를 선택한 것은 뉴욕이 AI 안전에 대해 선제적인 "치안 유지(policing)" 접근 방식을 취하겠다는 의지를 보여줍니다.
RAISE 법은 혼란스러운 규제 파편화를 방지하기 위해 캘리포니아의 SB 53을 염두에 두고 초안이 작성되었으나, "조화"가 곧 "동일함"을 의미하지는 않습니다. 두 법안 모두 동일한 컴퓨팅 임계값($10^{26}$ FLOPs)과 "투명성 및 대비"라는 핵심 철학을 공유하지만, 집행 메커니즘과 구체적인 보고 일정에서 차이를 보입니다. 이러한 차이점은 주요 AI 연구소의 법무 팀이 가장 큰 마찰을 겪게 될 지점일 것입니다.
다음 표는 두 주 프레임워크 간의 주요 차이점을 요약한 것입니다:
| 특징 | 뉴욕 (RAISE 법) | 캘리포니아 (SB 53) |
|---|---|---|
| 대상 범위 | 프런티어 모델 (> $10^{26}$ FLOPs) | 프런티어 모델 (> $10^{26}$ FLOPs) |
| 사고 보고 기간 | 결정 후 72시간 이내 | 15일(일반); 24시간(급박한 위협) |
| 주요 감독 기관 | 금융서비스국 (DFS) | 법무장관 및 정부운영국 |
| 집행 메커니즘 | 법무장관의 민사 소송; DFS 행정 규칙 | 법무장관의 민사 소송 |
| 민사 벌금 | 최대 100만 달러(1차 위반); 300만 달러(이후) | 위반 건당 최대 100만 달러(한도 있음) |
| 개인 소송권 | 없음 | 없음 |
가장 중요한 운영상의 차이는 사고 보고 일정에 있습니다. 개발자가 "중대 안전 사고"를 72시간 이내에 보고하도록 한 뉴욕의 요구 사항은 캘리포니아의 표준 15일 기간보다 상당히 공격적입니다. 이 압축된 일정은 AI 기업들이 이상 징후를 감지할 뿐만 아니라 이를 법적으로 평가하고 거의 실시간으로 보고할 수 있는 성숙한 24/7 사고 대응 역량을 갖출 것을 요구합니다.
또한, 뉴욕 DFS의 개입은 기술 분야에 새로운 규제 기관을 도입하는 결과를 낳습니다. 주로 법무장관의 집행에 의존하는 캘리포니아와 달리, 뉴욕은 안전 테스트가 어떻게 수행되어야 하는지에 대한 세부 규칙을 공포할 수 있는 행정 구조를 만들었습니다. 이는 특정 모델이 캘리포니아의 투명성 요건은 통과하더라도, DFS가 "합리적인 주의"에 대해 더 규범적인 해석을 채택할 경우 뉴욕의 특정 안전 프로토콜은 통과하지 못할 수도 있는 "이중 트랙" 준수 체제의 가능성을 제기합니다.
업계 분석가들은 "중대한 피해"에 대한 정의는 조율되었지만, 절차적 차이가 "최고 공통 분모" 효과를 만든다고 지적합니다. 안전을 기하기 위해 개발자들은 뉴욕의 더 엄격한 72시간 보고 기준과 캘리포니아의 더 넓은 투명성 문서를 기본으로 채택하여, 사실상 두 법안의 가장 까다로운 측면을 단일 내부 준수 프로토콜로 통합할 가능성이 높습니다.
RAISE 법의 제정은 연방 차원의 불확실성이 매우 큰 시점에 이루어졌습니다. 현 정부가 규제 완화 중심의 의제를 추진하기 위해 이전의 AI 안전 관련 행정 명령을 축소함에 따라, 주 정부들이 그 공백을 메우기 위해 나섰습니다. 이 현상은 엄격한 규제 관할권이 더 넓은 시장의 표준을 설정하는 "브뤼셀 효과(Brussels Effect)"와 유사합니다. 이 경우, 새크라멘토와 올버니가 사실상 국가적인 AI 안전 규칙을 작성하는 "양대 해안 효과(bi-coastal effect)"라고 할 수 있습니다.
법률 전문가들은 이러한 주 주도의 접근 방식이 필요한 가드레일을 제공하기는 하지만, 콜로라도, 텍사스 또는 매사추세츠와 같은 다른 주들이 서로 다른 임계값이나 정의를 가진 자체 프런티어 모델 법안을 제정할 경우 단절될 위험이 있다고 경고합니다. 그러나 미국 AI 산업의 대다수가 위치한 뉴욕과 캘리포니아의 경제적 무게감을 고려할 때, 두 주의 통합 프레임워크가 당분간 사실상의 국가 표준이 될 가능성이 큽니다.
AI 업계에 있어 2027년 시행일을 향한 시계는 이미 돌아가기 시작했습니다. 프런티어 연구소의 최고 기술 책임자(CTO)와 법무 책임자들의 당면 과제는 현재의 내부 안전 관행과 RAISE 법 및 SB 53의 법적 요구 사항 사이의 "갭 분석(gap analysis)"을 수행하는 것입니다.
2026년 전략적 우선순위:
2026년이 지나면서 RAISE 법의 시행은 주 단위 규제가 인공지능처럼 유동적이고 글로벌한 기술을 효과적으로 다스릴 수 있는지에 대한 중요한 시험대가 될 것입니다. 현재로서는 뉴욕이 깃발을 꽂았으며, 범용 인공지능(AGI, Artificial General Intelligence)으로 가는 길은 실리콘 밸리만큼이나 올버니를 거쳐야 함을 분명히 했습니다.