
23 février 2026 – Dans une mise à jour subtile mais d'une importance sismique de sa documentation d'entreprise, OpenAI a supprimé le mot « safely » (en toute sécurité) de son énoncé de mission principal. Ce glissement linguistique, observé tôt lundi matin, intervient alors que le géant de l'intelligence artificielle accélère sa transition vers une société d'intérêt public (Public Benefit Corporation, PBC) à but lucratif, marquant un départ définitif de son éthique fondatrice en tant que laboratoire de recherche à but non lucratif axé sur la sécurité.
Le changement, bien qu'il ne s'agisse que d'un seul mot, résonne dans toute l'industrie de l'IA, confirmant les soupçons de longue date selon lesquels l'entreprise donne la priorité à la vitesse de déploiement et à la viabilité commerciale sur les principes de précaution qui définissaient autrefois sa marque. Alors que Sam Altman dirige l'organisation à travers sa restructuration la plus controversée à ce jour, la suppression de « safely » semble moins relever d'une édition par souci de concision que d'un alignement des obligations légales avec une nouvelle réalité opérationnelle agressive.
Pendant des années, la mission d'OpenAI a été codifiée par un double engagement : s'assurer que l'intelligence artificielle générale (Artificial General Intelligence, AGI) bénéficie à toute l'humanité, et s'assurer qu'elle soit développée en toute sécurité. Le texte mis à jour, désormais en ligne sur les pages « Charter » et « About » de l'entreprise, conserve l'engagement envers une AGI bénéfique mais abandonne ostensiblement l'adverbe qui qualifiait le processus de développement.
Cette modification n'est pas purement cosmétique. Dans le monde à enjeux élevés du droit des sociétés — particulièrement pour une Public Benefit Corporation — les énoncés de mission servent de « North Star » (étoile polaire) pour les devoirs du conseil d'administration. En supprimant la contrainte explicite de « sécurité » de la mission de haut niveau, OpenAI pourrait se libérer légalement des processus de sécurité susceptibles de ralentir les sorties de produits ou d'entraver les partenariats commerciaux.
Les analystes de Creati.ai ont effectué une comparaison côte à côte de l'énoncé de mission archivé par rapport à la version publiée aujourd'hui. Les différences mettent en évidence un pivot clair vers un développement sans entrave.
Tableau 1 : Analyse comparative des changements de l'OpenAI Mission Statement
| Ancien texte de mission | Texte de mission mis à jour | Implication stratégique |
|---|---|---|
| S'assurer que l'intelligence artificielle générale (AGI) soit développée en toute sécurité et bénéficie à toute l'humanité. | S'assurer que l'intelligence artificielle générale (AGI) bénéficie à toute l'humanité. | Supprime le mandat explicite de sécurité comme précondition au développement, priorisant le résultat de « bénéfice ». |
| Nous tenterons de construire directement une AGI sûre et bénéfique. | Nous tenterons de construire directement une AGI bénéfique. | Désolidarise le concept de « bénéfice » de celui de « sécurité », impliquant que l'utilité et la valeur économique peuvent désormais supplanter l'atténuation des risques. |
| Si un projet aligné sur les valeurs et soucieux de la sécurité est proche de construire une AGI avant nous, nous nous engageons à cesser de rivaliser. | Si un projet aligné sur les valeurs est proche de construire une AGI avant nous, nous nous engageons à cesser de rivaliser. | Abaisse le seuil de ce qui constitue un concurrent « aligné sur les valeurs », supprimant potentiellement les protocoles de sécurité comme critère de coopération. |
Le moment choisi pour cette modification est inextricablement lié à la finalisation de la restructuration d'OpenAI en une société d'intérêt public à but lucratif. Depuis fin 2025, l'entreprise navigue dans la dissolution juridique complexe de son conseil d'administration d'origine à but non lucratif, une structure initialement conçue pour licencier le PDG si la mission d'une « AGI sûre » était compromise.
Le conseil d'administration à but non lucratif étant désormais effectivement écarté, la nouvelle structure PBC permet à OpenAI de poursuivre légalement des rendements pour les actionnaires, à condition qu'ils équilibrent ces profits avec un « bénéfice public ». La suppression de « safely » de l'énoncé de mission simplifie cet équilibre. Si la « sécurité » reste un pilier de mission principal et égal, un membre du conseil d'administration pourrait théoriquement poursuivre l'entreprise pour avoir publié un modèle présentant un risque non nul. En supprimant le mot, la définition de « bénéfice public » devient plus malléable — probablement interprétée comme « croissance économique » ou « accès technologique » plutôt que comme « évitement des risques ».
Les experts juridiques suggèrent qu'il s'agit d'une manœuvre défensive. « Dans une PBC, la mission fait loi », explique Sarah Jenkins, avocate spécialisée en gouvernance d'entreprise dans le secteur technologique. « Si votre mission vous oblige à agir "en toute sécurité", vous êtes vulnérable aux poursuites des actionnaires chaque fois qu'un modèle hallucine ou est mal utilisé. En supprimant le mot, OpenAI abaisse son bouclier de responsabilité pour dégager la voie à une commercialisation rapide. »
Cette initiative a déclenché un retour de bâton immédiat de la part de la communauté de la AI safety (sécurité de l'IA) et d'anciens employés d'OpenAI. La faction « sécuritaire », qui a été lentement purgée de l'entreprise au cours des deux dernières années, voit cela comme le dernier clou dans le cercueil de la promesse initiale de l'organisation.
Les critiques soutiennent que sans le mandat explicite de sécurité, OpenAI fonctionne effectivement comme n'importe quelle autre entreprise de la Big Tech, malgré la possession d'une technologie aux conséquences potentiellement existentielles. « C'est une déclaration d'intention », a noté un ancien chef d'équipe de Superalignement (Superalignment) ayant requis l'anonymat. « Ils disent au monde que s'il y a un compromis à faire entre sortir un modèle la semaine prochaine ou le tester pendant six mois de plus, ils choisiront la sortie. Les garde-fous de sécurité sont désormais des options facultatives, pas des contraintes fondamentales. »
À l'inverse, les partisans du changement — y compris de nombreux membres du camp accélérationniste (e/acc) — soutiennent que le mot « safely » était devenu un terme militarisé utilisé pour freiner le progrès. Ils soutiennent que le plus grand risque pour l'humanité n'est pas une IA rebelle, mais l'échec à déployer des solutions d'IA pour guérir des maladies et résoudre le changement climatique. De ce point de vue, la mise à jour de la mission est une correction nécessaire pour libérer tout le potentiel de la technologie.
Le virage d'OpenAI contraste vivement avec les stratégies employées par ses principaux concurrents. Tandis qu'OpenAI adoucit son langage, Anthropic redoublerait d'efforts sur la sécurité comme proposition de vente unique pour obtenir des contrats gouvernementaux.
Selon des rapports du New York Times, le Pentagone évalue actuellement des partenariats majeurs en IA pour ses systèmes de commandement interarmées. Anthropic a positionné son cadre « IA constitutionnelle » (Constitutional AI) — qui intègre des règles de sécurité directement dans le code du modèle — comme le choix fiable pour les applications de défense. En maintenant une image de marque rigoureuse axée sur la sécurité, Anthropic se taille une place en tant qu'alternative « responsable » à la domination « move fast » d'OpenAI.
Cependant, le changement de mission d'OpenAI pourrait en fait faciliter des liens plus étroits avec le gouvernement américain d'une autre manière. En supprimant un langage de sécurité restrictif qui pourrait exclure le développement de systèmes d'armes ou de capacités cybernétiques offensives, OpenAI pourrait lever les obstacles éthiques qui empêchaient auparavant une collaboration profonde avec le Département de la Défense (Department of Defense). Une mission purement axée sur les « bénéfices » est assez large pour englober les intérêts de sécurité nationale, alors qu'un mandat strict de « sécurité » aurait pu être interprété comme interdisant les applications militaires qui impliquent intrinsèquement de nuire à des adversaires.
En fin de compte, la suppression de « safely » de l'énoncé de mission sert de signal que le calendrier de l'AGI se comprime. OpenAI n'opère plus dans une phase de recherche théorique ; elle est dans une phase de déploiement. L'entreprise anticipe que les systèmes qu'elle sortira en 2026 et 2027 seront assez puissants pour remodeler l'économie mondiale, et elle structure sa gouvernance pour survivre aux ondes de choc juridiques et financières de cette perturbation.
Pour l'écosystème plus large, cela crée un précédent dangereux. Si le leader de l'industrie ne considère plus la « sécurité » comme un pilier central et déclaré de sa mission, la pression sur les autres laboratoires pour brûler les étapes augmente. La « course vers le bas » que redoutaient les défenseurs de la sécurité semble s'accélérer, les documents de gouvernance d'entreprise étant réécrits pour s'adapter à la vélocité de la course.
Alors qu'OpenAI achève sa métamorphose en une entité à but lucratif, le monde doit faire face à une nouvelle réalité : l'organisation qui construit l'intelligence la plus puissante de l'histoire vient de supprimer le mot conçu pour nous en protéger.