
2023년에서 2025년 사이 미국의 인공지능(Artificial Intelligence) 규제 지형은 지각 변동을 겪었습니다. Future of Privacy Forum(FPF)의 데이터에 따르면, 14개 주의 입법자들이 27개의 별도 AI 관련 법안을 제정했으며, 이는 광범위하고 이론적인 프레임워크에서 벗어나 목표가 뚜렷하고 영향력이 큰 규제로의 이동을 의미합니다.
2026년 초 현재, 이러한 법률의 대부분이 시행되어 개발자, 배포자 및 플랫폼에 즉각적인 준수 의무를 부여하고 있습니다. 이 법안의 물결은 프런티어 모델(Frontier model)의 안전 및 치명적 위험부터 챗봇 투명성 및 비동의 친밀 이미지 배포에 이르기까지 중요한 영역을 다룹니다. AI 전문가와 기업에게 이러한 주 및 연방 요구 사항의 패치워크를 이해하는 것은 더 이상 미래의 계획이 아니라 현재의 법적 필수 사항입니다.
2024년의 입법 트렌드는 AI 구성 요소를 포함한 포괄적인 소비자 데이터 프라이버시법에 크게 치우쳐 있었습니다. 그러나 2025년은 더 좁고 위험 기반의 조치로 뚜렷하게 전환되는 기점이 되었습니다. 특히 캘리포니아와 뉴욕의 주 의회는 특정 기술과 사용 사례를 목표로 삼아 연방 규제의 공백을 메우는 데 앞장서 왔습니다.
2025년 입법 회기는 방대한 컴퓨팅 성능으로 훈련된 고성능 AI 시스템인 "프런티어 모델"과 생성형 AI(Generative AI)와 관련된 특정 위험(예: 딥페이크(Deepfakes) 및 챗봇에 의한 감정 조작)에 초점을 맞춘 것이 특징입니다. 이러한 표적 접근 방식은 서로 다른 AI 양식에는 별도의 규제 가드레일이 필요하다는 입법자들 사이의 커지는 공감대를 반영합니다.
2025년의 가장 중요한 입법 성과 중 두 가지는 캘리포니아의 상원 법안 53(SB 53)과 뉴욕의 RAISE Act입니다. 두 법안 모두 가장 진보된 AI 시스템 개발자를 위한 최초의 실질적인 준수 체계를 수립하여, 프런티어 모델 거버넌스에 대한 사실상의 국가 표준을 설정했습니다.
2025년 9월에 법으로 서명된 캘리포니아의 SB 53은 AI로 인한 "치명적 위험(catastrophic risk)"을 해결하기 위해 특별히 설계된 최초의 미국 법령입니다. 이 법은 10^26 부동 소수점 연산(FLOPs) 이상의 컴퓨팅 성능으로 훈련된 모델을 만드는 "프런티어 개발자"에게 적용되며, 이는 현재 가장 진보된 파운데이션 모델들만이 충족하는 임계값입니다.
주요 조항은 다음과 같습니다:
그 뒤를 이어 뉴욕은 2025년 12월에 책임 있는 AI 안전 및 교육법(Responsible AI Safety and Education, RAISE Act)을 제정했습니다. 2027년 1월 1일부터 시행되는 RAISE Act는 캘리포니아의 컴퓨팅 임계값(>10^26 FLOPs)을 미러링하지만, 금융서비스국(Department of Financial Services) 내에 전담 감독 사무국을 도입합니다.
RAISE Act의 요구 사항:
기초 모델을 넘어, 2025년에는 특히 챗봇 및 합성 콘텐츠와 관련된 사용자의 AI 상호 작용을 규제하는 법안이 급증했습니다.
챗봇 투명성
캘리포니아, 메인, 뉴햄프셔, 뉴욕, 유타의 5개 주는 AI 챗봇을 구체적으로 다루는 법안을 제정했습니다. 이러한 규정은 사용자가 AI 시스템과 상호 작용할 때 명확한 공개를 의무화합니다. 뉴욕의 "AI 컴패니언 모델법(AI Companion Model Law)"과 캘리포니아의 SB 243은 더 나아가 정신 건강 보호에 초점을 맞추고 있습니다. 이들은 "컴패니언" 챗봇 운영자가 사용자의 괴로움이나 자살 충동을 감지하고 완화하기 위한 안전 프로토콜을 구현하도록 요구하며, 이는 의인화된 AI의 정서적 영향에 대한 우려를 반영합니다.
TAKE IT DOWN Act
연방 차원에서 2025년 5월에 서명된 "TAKE IT DOWN Act"는 AI 규제에 있어서 드문 초당적 승리를 나타냅니다. 이 법은 AI 생성 딥페이크를 포함하여 비동의 친밀 이미지(Nonconsensual Intimate Imagery, NCII)를 생성 및 배포하는 행위를 범죄로 규정합니다. 또한 플랫폼에 엄격한 "통지 및 삭제" 의무를 부과하여, FTC의 집행력을 바탕으로 유효한 요청 후 48시간 이내에 침해 콘텐츠를 제거하도록 요구합니다.
많은 법률이 이미 시행 중이지만, 여러 핵심 규정에는 기업이 추적해야 할 단계적 시행일이 있습니다.
주요 AI 입법 시행일
| 법률 | 관할권 | 시행일 |
|---|---|---|
| TAKE IT DOWN Act (딥페이크 제거) | 연방 | 2026년 5월 19일 |
| SB 205 (콜로라도 AI 법) | 콜로라도 | 2026년 6월 30일 |
| SB 1295 (자동화된 의사결정) | 커네티컷 | 2026년 7월 1일 |
| AB 853 (AI Transparency Act 개정안) | 캘리포니아 | 2026년 8월 2일 |
| RAISE Act (프런티어 모델 안전) | 뉴욕 | 2027년 1월 1일 |
| AB 853 (출처 감지 요구 사항) | 캘리포니아 | 2027년 1월 1일 |
이 27개 법안의 제정은 Creati.ai의 독자인 개발자와 비즈니스 리더들에게 복잡한 준수 환경을 조성합니다. 고위험 및 프런티어 AI 시스템에 대한 자발적 자율 규제 시대는 사실상 끝났습니다.
1. 출처 증명 의무화
캘리포니아의 개정된 AI 투명성법(AB 853)이 2026년과 2027년에 전면 시행됨에 따라, 생성형 AI 도구 개발자는 워터마킹 및 출처 감지 표준(예: C2PA)을 시스템에 통합해야 합니다. AI 콘텐츠를 호스팅하는 플랫폼은 법적으로 라벨을 부착해야 하므로 강력한 메타데이터 관리가 필요합니다.
2. 미국의 "브뤼셀 효과(Brussels Effect)"
GDPR이 프라이버시에 대한 글로벌 표준을 설정한 것처럼, 프런티어 모델에 대한 10^26 FLOPs 임계값에 대한 캘리포니아와 뉴욕의 일치는 통일된 국내 표준이 나타나고 있음을 시사합니다. 이들 주에 본사를 두지 않은 기업이라도 시장 접근을 보장하기 위해 이러한 안전 프레임워크를 채택할 가능성이 높으며, 이는 사실상 이러한 주 수준의 요구 사항을 전국화하는 결과를 낳을 것입니다.
3. 다운스트림 사용에 대한 책임
TAKE IT DOWN Act와 주 수준의 챗봇 법안은 사용자 생성 콘텐츠를 호스팅하는 플랫폼에 상당한 책임을 부과합니다. 기업은 신속한 삭제 요청을 처리하고 합성 미디어를 감지하기 위해 콘텐츠 모더레이션 인프라를 업그레이드해야 하며, 그렇지 않으면 연방 형사 책임과 막대한 민사 벌금의 위험을 감수해야 합니다.
2026년이 진행됨에 따라 의료 및 고용 분야의 부문별 응용 프로그램에 초점을 맞춘 추가 입법 활동이 예상됩니다. 현재 AI 조직의 우선순위는 올해 하반기에 다가올 시행일에 대비하여 현재 모델이 "프런티어" 및 "고위험" 시스템에 대한 새로운 법적 정의에 부합하는지 감사하는 것입니다.