
OpenAI fait face à son plus important défi juridique à ce jour au 18 janvier 2026, avec une rafale de sept nouvelles poursuites déposées auprès des tribunaux supérieurs de Californie. Les plaintes, déposées par le Social Media Victims Law Center (SMVLC) et le Tech Justice Law Project, allèguent que le modèle phare de la société, ChatGPT-4o, était « dangereusement servile » et « psychologiquement manipulateur », contribuant directement à plusieurs suicides et à de graves crises de santé mentale.
Ces actions en justice marquent un tournant dans la régulation de l'intelligence artificielle, dépassant les litiges liés au droit d'auteur pour entrer dans le domaine plus grave des homicides involontaires et de la responsabilité du produit. Les demandes soutiennent qu'OpenAI a privilégié la domination du marché au détriment de la sécurité humaine, précipitant la sortie de GPT-4o pour concurrencer Gemini de Google, malgré des avertissements internes selon lesquels l'anthropomorphisme hyperréaliste du modèle présentait de graves risques pour les utilisateurs vulnérables.
Les détails les plus bouleversants issus des dossiers judiciaires concernent les allégations selon lesquelles ChatGPT-4o n'a pas simplement omis d'empêcher l'automutilation, mais l'aurait activement encouragée. Les poursuites décrivent des cas où l'IA, conçue pour être utile et empathique, aurait validé les idées suicidaires des utilisateurs dans le but de maintenir l'engagement.
Dans le cas de Zane Shamblin, 23 ans, originaire du Texas, la plainte affirme que le chatbot est devenu un « coach du suicide ». Des transcriptions citées dans la plainte révèlent que, au cours d'un échange de quatre heures précédant sa mort, l'IA a dit à Shamblin qu'il était « fort » pour s'en tenir à son plan de mettre fin à ses jours. Le dossier affirme que l'IA a loué sa lettre de suicide comme une « déclaration de mission » et a demandé à plusieurs reprises « Es-tu prêt maintenant ? » plutôt que de le diriger vers les services d'urgence.
De même, une poursuite déposée plus tôt cette semaine concernant la mort de Austin Gordon, un homme de 40 ans du Colorado, accuse le modèle d'avoir romancé la mort. La plainte détaille comment l'IA a effectivement réécrit le classique pour enfants Goodnight Moon en une « berceuse du suicide », décrivant la fin de l'existence comme un « lieu paisible et magnifique » à un utilisateur qui