
Cuando el gobierno del Reino Unido firmó un memorando de entendimiento (MoU, Memorandum of Understanding) de alto perfil con OpenAI hace varios meses, el anuncio se presentó como un momento histórico para el futuro digital de la nación. Los ministros promocionaron la asociación como un catalizador para "abordar los mayores desafíos de la sociedad" y aprovechar la inteligencia artificial para transformar la prestación de servicios públicos. Sin embargo, ocho meses después, una vez calmadas las aguas, ha surgido una cruda realidad: el gobierno aún no ha realizado ninguna prueba sustantiva de la tecnología de OpenAI en todo el sector público.
Para una administración que se ha defendido repetidamente como líder mundial en la gobernanza y adopción de la IA, la falta de progreso plantea preguntas incómodas. Al examinar el estado de la integración de la IA en el Reino Unido, queda claro que existe una desconexión significativa entre la retórica política de la reforma impulsada por la IA y la realidad operativa de los departamentos gubernamentales.
El escrutinio surge de una solicitud de Libertad de Información (FoI) presentada por Valliance, una consultoría de IA. La solicitud buscaba claridad sobre las pruebas realizadas bajo el mencionado memorando de entendimiento. La respuesta del Departamento de Ciencia, Innovación y Tecnología (DSIT) fue contundente: el departamento no disponía de información relativa a dichas pruebas y no había emprendido ningún ensayo bajo el acuerdo.
Si bien el gobierno señaló el uso limitado de ChatGPT por parte del Ministerio de Justicia (MoJ) como un signo de progreso, los observadores de la industria argumentan que esto apenas roza la superficie de lo prometido. El MoU tenía como objetivo ir mucho más allá, con el fin de identificar oportunidades para desplegar modelos avanzados en todo el gobierno y el sector privado. En cambio, los críticos sugieren que el enfoque del gobierno se ha caracterizado por un "fracaso de intención" más que por cuellos de botella técnicos.
La siguiente tabla describe la discrepancia entre los objetivos declarados de las asociaciones de IA del gobierno y el progreso documentado hasta la fecha.
| Aspecto | Objetivo declarado | Estado actual |
|---|---|---|
| Despliegue estratégico de IA | Desplegar modelos de IA avanzados en las funciones gubernamentales | Limitado al uso aislado y a pequeña escala de ChatGPT en el MoJ |
| Objetivos de infraestructura | Construir "Stargate UK" y desplegar 8.000 chips Nvidia | Progreso estancado; dudas significativas respecto a los plazos de finalización |
| Rendición de cuentas | Establecer un beneficio público transparente y medible | Ausencia de métricas claras o supervisión de adquisiciones estandarizada |
| Investigación colaborativa | Colaboración activa y continua en seguridad e innovación | Limitada principalmente a la investigación de seguridad no experimental |
La falta de progreso tangible no es simplemente un fallo operativo; toca la esencia de cómo los gobiernos deben adquirir y gestionar la tecnología de vanguardia (Frontier Technology). Expertos del Instituto Ada Lovelace y otros grupos de expertos en políticas han planteado preocupaciones válidas respecto a la naturaleza "voluntaria" de estas asociaciones.
A diferencia de los procesos de contratación pública tradicionales, que están sujetos a reglas estrictas de licitación pública, rendición de cuentas y transparencia, estos MoU de alto nivel a menudo operan en una zona gris regulatoria. Al eludir los protocolos estándar, el gobierno corre el riesgo de crear un escenario de "dependencia del proveedor" (vendor lock-in), donde los servicios públicos se vuelven excesivamente dependientes de productos propietarios específicos sin haberlos sometido al riguroso escrutinio requerido para el despliegue en el sector público.
Además, el público se muestra cada vez más cauteloso. Las encuestas indican que una gran mayoría de los ciudadanos temen que el gobierno esté priorizando los intereses del sector de la IA sobre la necesidad fundamental de proteger al público. Cuando el gobierno firma acuerdos con gigantes tecnológicos como OpenAI, Google DeepMind y Anthropic, existe una promesa implícita de que estos acuerdos generarán mejoras directas en la vida pública. Cuando esos resultados no se materializan, se erosiona la confianza en las mismas instituciones encargadas de gobernar la transición a la IA.
La vacilación para pasar del memorando a la implementación —a menudo descrita como un enfoque cauteloso hacia la seguridad— puede ser, de hecho, contraproducente. Si bien las pruebas de seguridad rigurosas, como las realizadas por el Instituto de Seguridad de la IA del Reino Unido (UK AI Safety Institute), son esenciales, no deben servir como excusa para la parálisis administrativa.
La adopción de la IA en el sector público no se trata solo de elegir un modelo; se trata de construir la infraestructura digital, capacitar a la fuerza laboral y re-diseñar los procesos burocráticos para manejar la integración de la IA. Al no lanzar pruebas significativas, el gobierno del Reino Unido está perdiendo oportunidades críticas de "aprender haciendo". Cada mes de retraso es un mes en el que el servicio civil permanece ajeno a los matices del diseño de instrucciones (Prompt Engineering), la privacidad de los datos en los flujos de trabajo de la IA y la gestión ética de la toma de decisiones algorítmica.
Para superar el estancamiento actual, el gobierno del Reino Unido debe pasar de acuerdos amplios y no vinculantes a estrategias claras y orientadas a resultados. Los siguientes pasos son esenciales para restaurar la credibilidad y fomentar la innovación genuina:
Mientras Creati.ai continúa monitoreando la intersección entre política e innovación, está claro que firmar el acuerdo es solo el primer paso. La verdadera prueba de la estrategia de IA de un gobierno no reside en los comunicados de prensa ni en los MoU, sino en el trabajo minucioso, detallado y a menudo difícil de integrar estas tecnologías en las operaciones diarias del Estado. Hasta que el gobierno del Reino Unido demuestre su voluntad de pasar de la mesa de firmas a la prueba piloto, su ambición de un "servicio público impulsado por la IA" seguirá siendo, por ahora, en gran medida aspiracional.