
L'équilibre délicat entre le progrès commercial de l'IA et la gouvernance éthique a subi un choc sismique ce week-end alors que Caitlin Kalinowski, responsable de la robotique et du matériel grand public chez OpenAI, a démissionné de son poste. Son départ, explicitement cité comme une réponse au renforcement des liens d'OpenAI avec le Département de la Défense (DoD) des États-Unis, met en lumière une fracture croissante au sein de la communauté de l'intelligence artificielle concernant la militarisation des modèles de pointe (Frontier Models).
Kalinowski, une vétérane du matériel informatique qui a rejoint OpenAI fin 2024 après avoir dirigé la division des lunettes AR de Meta, a qualifié l'accord récent de l'entreprise avec le Pentagone d'« échec de gouvernance ». Sa démission intervient quelques jours seulement après que des rapports ont révélé qu'OpenAI avait obtenu un contrat classifié, principalement parce que la firme rivale Anthropic avait refusé tout compromis sur les lignes rouges de sécurité concernant les armes autonomes et la surveillance domestique.
Dans une déclaration qui a depuis largement circulé sur les réseaux sociaux et les forums de l'industrie, Kalinowski n'a pas mâché ses mots. Elle a soutenu que les garde-fous établis dans le nouvel accord de défense d'OpenAI ont été « précipités » et manquaient de la force juridique contraignante nécessaire pour prévenir les abus.
« Nous pensons que notre accord avec le Pentagone crée une voie viable... mais sans garde-fous définis d'une manière qui résiste aux vents politiques changeants, c'est un échec de gouvernance », a noté Kalinowski. Sa principale préoccupation semble se concentrer sur la distinction entre la politique contractuelle — qui peut être modifiée ou levée par la direction — et les interdictions techniques/juridiques strictes.
Ce départ représente un coup dur pour les ambitions d'OpenAI en matière de robotique. Kalinowski avait été embauchée pour mener le retour de l'entreprise vers l'IA physique, chargée d'intégrer des modèles multimodaux dans des dispositifs matériels. Son mandat, bien que bref, était considéré comme un pont critique entre la dominance logicielle d'OpenAI et le monde physique. Son départ signale que pour de nombreux ingénieurs de haut niveau, les implications éthiques de leur travail restent une priorité non négociable.
Le contexte de cette démission est indissociable des manœuvres géopolitiques plus larges impliquant le DoD. Fin février 2026, les négociations entre le Pentagone et Anthropic — la startup de sécurité de l'IA fondée par d'anciens cadres d'OpenAI — ont échoué.
Anthropic aurait refusé d'autoriser l'utilisation de ses modèles « Claude » pour des systèmes d'armes autonomes létales ou de surveillance de masse, exigeant des clauses strictes et immuables dans tout contrat gouvernemental. Dans une décision qui a choqué l'industrie, le DoD a par la suite qualifié Anthropic de « risque pour la chaîne d'approvisionnement », les inscrivant de fait sur liste noire pour certains contrats de défense.
OpenAI a réagi rapidement pour combler le vide. Le PDG Sam Altman a annoncé un accord pour déployer les modèles d'OpenAI au sein des réseaux classifiés du DoD. Bien qu'Altman ait souligné que l'accord s'aligne sur la mission d'OpenAI — citant des interdictions sur la « direction indépendante des armes autonomes » — des critiques comme Kalinowski soutiennent que le langage permet trop d'ambiguïté, particulièrement concernant les définitions de « l'humain dans la boucle » (Human in the loop) qui ont historiquement été étirées dans des contextes militaires.
La divergence de stratégie entre les deux principaux laboratoires d'IA n'a jamais été aussi marquée. Le tableau suivant présente les différences clés qui ont conduit au pivot du DoD d'Anthropic vers OpenAI.
Tableau 1 : Position sur les contrats de défense Anthropic vs OpenAI
| Caractéristique | Position d'Anthropic | Accord d'OpenAI |
|---|---|---|
| Armes autonomes | Interdiction stricte et non négociable sur toutes les applications létales | Autorisées avec « responsabilité humaine » et sauvegardes politiques |
| Surveillance | Refus de permettre des outils de surveillance domestique de masse | Restreinte par la « loi actuelle » (sujet à des changements législatifs) |
| Nature contractuelle | Exigence de restrictions techniques contraignantes | S'appuie sur une politique « stratifiée » et une gouvernance souple |
| Conséquence du DoD | Qualifiée de « Risque chaîne d'approvisionnement » / Contrat annulé | Déploiement classifié sécurisé / Statut de « Partenaire stratégique » |
Kalinowski n'est pas seule dans sa dissidence. Sa démission a galvanisé une partie des effectifs d'OpenAI et de la base d'utilisateurs au sens large, déclenchant une résurgence du mouvement « QuitGPT ».
Les canaux internes d'OpenAI auraient été inondés de préoccupations selon lesquelles l'entreprise s'est trop éloignée de ses racines à but non lucratif. Lorsqu'OpenAI a supprimé l'interdiction explicite de « l'usage militaire et de la guerre » de ses politiques d'utilisation en janvier 2024, la direction l'a décrit comme une mise à jour nécessaire pour permettre des applications de « sécurité nationale » comme la cybersécurité. Cependant, l'accord actuel, qui implique des opérations classifiées et remplace un concurrent axé sur la sécurité, est perçu par les employés comme une trahison fondamentale de la charte originale de l'entreprise.
Pour l'équipe de robotique spécifiquement, les implications sont profondes. La robotique est l'interface où l'IA exerce une force physique. La crainte des ingénieurs est que les mêmes modèles formés pour aider les robots domestiques à plier le linge pourraient, en vertu de ce nouvel accord, être réutilisés pour guider des drones autonomes ou des sentinelles bipèdes, à condition qu'un opérateur humain soit nominalement « responsable » de l'action finale.
Les événements de cette semaine marquent un tournant dans l'industrie de l'IA. Nous assistons à la consolidation d'un « complexe militaro-industriel de l'IA », où l'accès aux modèles de pointe les plus puissants devient une question de sécurité nationale, l'emportant sur les hésitations commerciales ou éthiques.
La démission de Caitlin Kalinowski est plus qu'un changement de personnel ; c'est une protestation contre la normalisation de l'IA dans la guerre. À mesure qu'OpenAI s'intègre plus profondément dans l'infrastructure du Pentagone, l'« échec de gouvernance » qu'elle a identifié restera probablement un point central de discorde. L'industrie doit maintenant faire face à une réalité inconfortable : dans la course vers l'intelligence artificielle générale (AGI), la frontière entre un outil bénéfique et une arme de guerre devient de plus en plus floue.