
Lorsque le gouvernement britannique a signé un protocole d'accord (Memorandum of Understanding - MoU) de haut niveau avec OpenAI il y a plusieurs mois, l'annonce a été présentée comme un moment historique pour l'avenir numérique de la nation. Les ministres ont vanté ce partenariat comme un catalyseur pour « relever les plus grands défis de la société » et exploiter l'intelligence artificielle (IA) afin de transformer la prestation des services publics. Cependant, alors que la poussière retombe huit mois plus tard, une réalité flagrante émerge : le gouvernement n'a pas encore mené d'essais substantiels de la technologie d'OpenAI dans le secteur public.
Pour une administration qui s'est répétitivement présentée comme un leader mondial de la gouvernance et de l'adoption de l'IA, ce manque de progrès soulève des questions inconfortables. En examinant l'état de l'intégration de l'IA au Royaume-Uni, il devient clair qu'il existe un décalage important entre la rhétorique politique d'une réforme menée par l'IA et la réalité opérationnelle des départements gouvernementaux.
L'examen minutieux provient d'une demande d'accès à l'information (Freedom of Information - FoI) déposée par Valliance, un cabinet de conseil en IA. La demande visait à clarifier les essais menés dans le cadre du protocole d'accord susmentionné. La réponse du Ministère de la Science, de l'Innovation et de la Technologie (Department for Science, Innovation and Technology - DSIT) a été brutale : le ministère ne détenait aucune information concernant de tels essais et n'avait entrepris aucun test dans le cadre de l'accord.
Bien que le gouvernement ait souligné l'utilisation limitée de ChatGPT par le Ministère de la Justice (Ministry of Justice - MoJ) comme un signe de progrès, les observateurs du secteur affirment que cela effleure à peine la surface de ce qui avait été promis. Le protocole d'accord devait aller beaucoup plus loin, visant à identifier des opportunités de déploiement de modèles avancés dans l'ensemble du gouvernement et du secteur privé. Au lieu de cela, les critiques suggèrent que l'approche du gouvernement a été caractérisée par un « échec d'intention » plutôt que par des goulots d'étranglement techniques.
Le tableau suivant présente l'écart entre les objectifs énoncés des partenariats d'IA du gouvernement et les progrès documentés à ce jour.
| Aspect | Objectif affiché | État actuel |
|---|---|---|
| Déploiement stratégique de l'IA | Déployer des modèles d'IA avancés dans les fonctions gouvernementales | Limité à une utilisation isolée et à petite échelle de ChatGPT au sein du MoJ |
| Objectifs d'infrastructure | Construire « Stargate UK » et déployer 8 000 puces Nvidia | Progrès au point mort ; doutes importants concernant les délais d'achèvement |
| Responsabilité | Établir un bénéfice public transparent et mesurable | Manque de mesures claires ou de supervision normalisée des marchés publics |
| Recherche collaborative | Collaboration active et continue sur la sécurité et l'innovation | Principalement limitée à la recherche sur la sécurité non expérimentale |
Le manque de progrès tangibles n'est pas seulement un échec opérationnel ; il touche au cœur de la manière dont les gouvernements devraient acquérir et gérer les technologies de pointe (frontier technology). Des experts de l'Ada Lovelace Institute et d'autres groupes de réflexion politique ont soulevé des préoccupations valables concernant la nature « volontaire » de ces partenariats.
Contrairement aux processus traditionnels de passation des marchés, qui sont liés par des règles strictes d'appel d'offres public, de responsabilité et de transparence, ces protocoles d'accord de haut niveau opèrent souvent dans une zone grise réglementaire. En contournant les protocoles standards, le gouvernement risque de créer un scénario de « dépendance vis-à-vis du fournisseur » (vendor lock-in), où les services publics deviennent excessivement dépendants de produits propriétaires spécifiques sans les avoir soumis à l'examen rigoureux requis pour un déploiement dans le secteur public.
De plus, le public devient de plus en plus méfiant. Les sondages indiquent qu'une majorité significative de citoyens craint que le gouvernement ne donne la priorité aux intérêts du secteur de l'IA au détriment du besoin fondamental de protéger le public. Lorsque le gouvernement signe des accords avec des géants de la technologie comme OpenAI, Google DeepMind et Anthropic, il y a une promesse implicite que ces accords apporteront des améliorations directes à la vie publique. Lorsque ces résultats ne se concrétisent pas, cela érode la confiance dans les institutions mêmes chargées de gouverner la transition vers l'IA.
L'hésitation à passer du protocole à la mise en œuvre — souvent décrite comme une approche prudente de la sécurité — pourrait, en fait, être contre-productive. Bien que des tests de sécurité rigoureux, tels que ceux menés par l'Institut britannique de sécurité de l'IA (UK AI Safety Institute), soient essentiels, ils ne devraient pas servir d'excuse à une paralysie administrative.
L'adoption de l’IA dans le secteur public ne consiste pas seulement à choisir un modèle ; il s'agit de construire l'infrastructure numérique, de perfectionner les compétences de la main-d'œuvre et de réorganiser les processus bureaucratiques pour gérer l'intégration de l'IA. En ne lançant pas d'essais significatifs, le gouvernement britannique passe à côté d'opportunités critiques d'« apprentissage par la pratique ». Chaque mois de retard est un mois où la fonction publique reste non initiée aux nuances de l'ingénierie de requêtes (prompt engineering), à la confidentialité des données dans les flux de travail de l'IA et à la gestion éthique de la prise de décision algorithmique.
Pour sortir de l'impasse actuelle, le gouvernement britannique doit pivoter des accords larges et non contraignants vers des stratégies claires et axées sur les résultats. Les étapes suivantes sont essentielles pour restaurer la crédibilité et favoriser une véritable innovation :
Alors que Creati.ai continue de surveiller l'intersection entre la politique et l'innovation, il est clair que la signature de l'accord n'est que la première étape. Le véritable test de la stratégie d'IA d'un gouvernement ne réside pas dans les communiqués de presse ou les protocoles d'accord, mais dans le travail acharné, détaillé et souvent difficile d'intégration de ces technologies dans les opérations quotidiennes de l'État. Tant que le gouvernement britannique ne démontrera pas sa volonté de passer de la table de signature à l'essai pilote, son ambition d'un « service public mené par l'IA » restera, pour l'instant, largement aspirationnelle.