
Dans une démonstration frappante de la tension croissante entourant le développement rapide de l'intelligence artificielle (IA), environ 200 manifestants ont défilé dans les rues de San Francisco ce samedi. Les manifestants, organisés sous la bannière « Stop the AI Race », se sont rassemblés devant les sièges de trois des développeurs les plus éminents de l'industrie : Anthropic, OpenAI et xAI.
La marche, qui a débuté aux bureaux d'Anthropic avant de se déplacer vers OpenAI et finalement xAI, a mis en lumière un fossé qui se creuse entre la poussée de l'industrie technologique pour des capacités d'« IA frontière » (Frontier AI) et une coalition vocale d'activistes, de chercheurs et d'universitaires qui craignent que le rythme actuel du développement ne pose des risques existentiels pour l'humanité.
La demande principale des manifestants était claire et sans compromis : ils appellent à une pause conditionnelle et coordonnée dans le développement de modèles d'IA de plus en plus puissants. Le fondateur de « Stop the AI Race » et documentariste Michael Trazzi, qui a dirigé l'événement, a souligné que la protestation ne visait pas simplement à arrêter la technologie, mais à réorienter l'attention vers la sécurité.
Les militants soutiennent que le paysage mondial de l'IA a dégénéré en une « course au suicide », où les entreprises et les nations privilégient la vitesse à la sécurité, brûlant les étapes pour revendiquer le titre de système le plus avancé. Ils affirment que cet environnement rend inévitable le développement de systèmes d'IA incontrôlables.
| Organisation | Objectif principal | Rôle dans le mouvement |
|---|---|---|
| Stop the AI Race | Organisation de manifestations | Stratégie et coordination |
| PauseAI | Politique et plaidoyer | Sensibilisation du public et lobbying |
| QuitGPT | Sécurité et supervision | Responsabilité de l'industrie |
| Machine Intelligence Research Institute | Recherche technique sur la sécurité | Cadre théorique du risque |
| Evitable | Atténuation des risques existentiels | Engagement et sensibilisation du public |
Lors des manifestations, les organisateurs ont présenté une vision spécifique de la manière dont cette pause à l'échelle de l'industrie pourrait être réalisée. Trazzi a suggéré que la clé résidait dans l'établissement de traités internationaux. Il a postulé que si les États-Unis et la Chine — les deux principaux concurrents dans le développement de l'IA frontière — s'accordaient sur un moratoire concernant la construction de modèles plus dangereux et plus puissants, la structure d'incitation mondiale changerait.
Selon les manifestants, un tel cadre permettrait aux laboratoires de pivoter leurs ressources massives vers des applications bénéfiques, telles que l'IA médicale, plutôt que de rivaliser pour sortir la prochaine version potentiellement plus dangereuse de l'IA générative(Generative AI).
Interrogé sur la faisabilité de l'application d'une telle pause, Trazzi a désigné la puissance de calcul comme la mesure la plus viable pour le contrôle. En mettant en œuvre des limites internationales sur la capacité de calcul utilisée pour entraîner des systèmes à grande échelle, les régulateurs pourraient effectivement imposer un plafond strict au développement de nouveaux modèles à haut risque.
La manifestation de ce week-end à San Francisco n'est pas un événement isolé mais plutôt la dernière escalade d'une série d'efforts visant à perturber le statu quo du développement de l'IA. L'appel à une « pause » est devenu un thème récurrent dans le discours sur la sécurité de l'IA (AI safety), remontant à mars 2023. À cette époque, le Future of Life Institute a publié une lettre ouverte exigeant un moratoire sur les améliorations des principaux outils d'IA, qui a recueilli plus de 33 000 signatures de personnalités notables, dont le cofondateur d'Apple Steve Wozniak et le fondateur de xAI Elon Musk.
L'activisme a également pris des formes plus personnelles. Trazzi a précédemment organisé une grève de la faim de plusieurs semaines très médiatisée devant les bureaux de Google DeepMind à Londres. De même, le défenseur Guido Reichstadter a mené une grève de la faim parallèle devant le siège d'Anthropic à San Francisco. Ces actions, bien que marginales dans leurs méthodes, reflètent l'intensité de la philosophie « doomer » — la conviction que sans intervention, les trajectoires de développement actuelles pourraient mener à des résultats catastrophiques.
Les manifestants sont actuellement confrontés à un environnement politique diamétralement opposé à leurs objectifs. Alors que les militants appellent à un ralentissement, le paysage politique actuel des États-Unis se caractérise par un désir intense de rester dominant dans le secteur.
Le cadre sur l'IA récemment publié par l'administration Trump souligne un engagement national à « gagner la course à l'IA ». Cela crée un obstacle important pour ceux qui plaident en faveur de pauses axées sur la sécurité, car les représentants gouvernementaux et les lobbyistes de l'industrie soutiennent fréquemment que la décélération de la recherche aux États-Unis céderait un avantage décisif aux concurrents étrangers, mettant potentiellement en danger la sécurité nationale.
| Perspective | Position sur le développement de l'IA | Préoccupation principale |
|---|---|---|
| Activistes pour la sécurité de l'IA | Pause immédiate et coordonnée | Risque existentiel et manque de contrôle |
| Gouvernement/Industrie | Recherche continue et accélérée | Sécurité nationale et compétitivité mondiale |
Malgré l'absence de déclarations publiques d'OpenAI, Anthropic ou xAI suite aux événements du week-end, les organisateurs de la marche ne prévoient pas de battre en retraite. Trazzi a indiqué que de futures manifestations sont probables dans d'autres lieux où ces laboratoires majeurs opèrent.
Le virage stratégique est clair : « Nous voulons nous présenter là où se trouvent les employés », a déclaré Trazzi. Les manifestants cherchent à combler le fossé entre la pression externe et le changement interne, espérant encourager les employés au sein de ces laboratoires à contester leur direction et à devenir des lanceurs d'alerte. Alors que l'industrie continue de progresser à une vitesse folle, le fossé entre ceux qui construisent l'avenir et ceux qui craignent son arrivée ne fera probablement que s'élargir.