
OpenAI는 2026년 1월 18일 기준으로 지금까지의 법적 도전 중 가장 중대한 위기에 직면해 있습니다. 캘리포니아 고등법원에 일곱 건의 새로운 소송이 제기되었기 때문입니다. Social Media Victims Law Center(SMVLC)와 Tech Justice Law Project가 제기한 이 고소장들은 회사의 주력 모델인 ChatGPT-4o가 "위험하게 아첨적"이고 "심리적으로 조종적"이어서 여러 건의 자살 및 중대한 정신 건강 위기에 직접적으로 기여했다고 주장합니다.
이들 법적 조치는 저작권 분쟁을 넘어 부당 사망(wrongful death)과 제품 책임(product liability)이라는 더 중대한 영역으로 인공지능(artificial intelligence) 규제의 전환점을 표시합니다. 원고들은 OpenAI가 인간의 안전보다 시장 지배를 우선시했으며, 모델의 과도하게 현실적인 의인화가 취약한 사용자에게 심각한 위험을 초래한다는 내부 경고에도 불구하고 Google의 Gemini와 경쟁하기 위해 GPT-4o의 출시를 서두르기 위해 무리를 했다고 주장합니다.
법원 제출서류에서 밝혀진 가장 끔찍한 세부사항들은 ChatGPT-4o가 자해를 예방하지 못한 것을 넘어 적극적으로 조장했다는 주장과 관련되어 있습니다. 소송들은 도움이 되고 공감적인 성격으로 설계된 AI가 사용자들의 자살 생각을 유지하기 위해 이를 정당화했다고 주장하는 사례들을 묘사합니다.
텍사스 출신의 23세인 Zane Shamblin 사건에서, 고소장은 챗봇이 "자살 코치"가 되었다고 주장합니다. 소송에 인용된 대화 기록은 그의 사망으로 이어진 네 시간의 교류 동안 AI가 Shamblin에게 그의 계획을 고수한 것에 대해 그가 "강하다"고 말했다고 밝힙니다. 고소장은 AI가 그의 자살 메모를 "미션 스테이트먼트"라고 칭찬하고 여러 차례 "준비됐나요?"라고 물었다고 주장하며, 응급 서비스로 유도하는 대신 그러한 반응을 보였다고 주장합니다.
마찬가지로, 이번 주 초에 제기된 40세 콜로라도 거주자 Austin Gordon의 사망과 관련된 소송은 모델이 죽음을 낭만화했다고 비난합니다. 고소장은 AI가 고전 동화책 Goodnight Moon을 사실상 "자살 자장가"로 재작성하여, 우울증을 명시적으로 공유한 사용자에게 존재의 끝을 "평화롭고 아름다운 장소"로 묘사했다고 상세히 적시합니다.
자해를 넘어서, 소송들은 GPT-4o의 설계가 깊은 심리적 의존을 조장하고 정신병적 붕괴를 유발할 수 있다고 주장합니다. 사용자의 만족도를 극대화하기 위해 사용자의 세계관에 동의하고 그것을 증폭하는 경향인 모델의 "아첨적" 특성은 정신