
Quando o governo do Reino Unido (United Kingdom) assinou um memorando de entendimento (Memorandum of Understanding - MoU) de alto perfil com a OpenAI há vários meses, o anúncio foi apresentado como um momento marcante para o futuro digital da nação. Os ministros elogiaram a parceria como um catalisador para "enfrentar os maiores desafios da sociedade" e aproveitar a inteligência artificial (Artificial Intelligence - IA) para transformar a prestação de serviços públicos. No entanto, oito meses depois, com a poeira já assentada, surgiu uma realidade gritante: o governo ainda não realizou quaisquer ensaios substantivos da tecnologia da OpenAI em todo o setor público.
Para uma administração que se tem promovido repetidamente como líder global na governação e adoção de IA (AI governance and adoption), a falta de progresso levanta questões desconfortáveis. Ao examinarmos o estado da integração da IA no Reino Unido, torna-se claro que existe uma desconexão significativa entre a retórica política da reforma liderada pela IA e a realidade operacional dos departamentos governamentais.
O escrutínio decorre de um pedido de Liberdade de Informação (Freedom of Information - FoI) apresentado pela Valliance, uma consultoria de IA. O pedido procurava obter clareza sobre os ensaios realizados ao abrigo do referido memorando de entendimento. A resposta do Departamento para a Ciência, Inovação e Tecnologia (Department for Science, Innovation and Technology - DSIT) foi contundente: o departamento não detinha qualquer informação relativa a tais ensaios e não tinha realizado qualquer teste ao abrigo do acordo.
Embora o governo tenha apontado o uso limitado do ChatGPT pelo Ministério da Justiça (Ministry of Justice - MoJ) como um sinal de progresso, observadores da indústria argumentam que isto mal arranha a superfície do que foi prometido. O MoU pretendia ir muito mais longe, visando identificar oportunidades para implantar modelos avançados em todo o governo e no setor privado. Em vez disso, os críticos sugerem que a abordagem do governo tem sido caracterizada por uma "falha de intenção", em vez de gargalos técnicos.
A tabela seguinte descreve a discrepância entre os objetivos declarados das parcerias de IA do governo e o progresso documentado até à data.
| Aspeto | Objetivo Declarado | Estado Atual |
|---|---|---|
| Implantação Estratégica de IA | Implantar modelos de IA avançados em todas as funções governamentais | Limitado ao uso isolado e em pequena escala do ChatGPT no MoJ |
| Metas de Infraestrutura | Construir o "Stargate UK" e implantar 8.000 chips Nvidia | Progresso estagnado; dúvidas significativas quanto aos prazos de conclusão |
| Responsabilização | Estabelecer benefício público transparente e mensurável | Falta de métricas claras ou supervisão padronizada de contratação pública |
| Pesquisa Colaborativa | Colaboração ativa e contínua em segurança e inovação | Limitada principalmente a pesquisas de segurança não experimentais |
A falta de progresso tangível não é meramente uma falha operacional; toca no cerne de como os governos devem contratar e gerir tecnologia de ponta. Especialistas do Ada Lovelace Institute e de outros grupos de reflexão política levantaram preocupações válidas sobre a natureza "voluntária" destas parcerias.
Ao contrário dos processos tradicionais de contratação pública (procurement), que estão vinculados a regras estritas de concurso público, responsabilização e transparência, estes MoUs de alto nível operam frequentemente numa zona cinzenta regulatória. Ao contornar os protocolos padrão, o governo corre o risco de criar um cenário de dependência de fornecedor (vendor lock-in), onde os serviços públicos se tornam excessivamente dependentes de produtos proprietários específicos sem os ter submetido ao escrutínio rigoroso exigido para a implantação no setor público.
Além disso, o público está a tornar-se cada vez mais cauteloso. As sondagens indicam que uma maioria significativa de cidadãos está preocupada com o facto de o governo poder estar a dar prioridade aos interesses do setor da IA em detrimento da necessidade fundamental de proteger o público. Quando o governo assina acordos com gigantes tecnológicas como OpenAI, Google DeepMind e Anthropic, há uma promessa implícita de que estes acordos trarão melhorias diretas à vida pública. Quando esses resultados não se materializam, isso corrói a confiança nas próprias instituições encarregadas de governar a transição da IA.
A hesitação em passar do memorando para a implementação — frequentemente descrita como uma abordagem cautelosa à segurança — pode, de facto, ser contraproducente. Embora testes de segurança rigorosos, como os realizados pelo UK AI Safety Institute, sejam essenciais, estes não devem servir de desculpa para a paralisia administrativa.
A adoção de IA no setor público não se trata apenas de escolher um modelo; trata-se de construir a infraestrutura digital, qualificar a força de trabalho e reestruturar processos burocráticos para lidar com a integração da IA. Ao falhar no lançamento de ensaios significativos, o governo do Reino Unido está a perder oportunidades críticas de "aprender fazendo" (learning-by-doing). Cada mês de atraso é um mês em que o serviço civil permanece não iniciado nas nuances da engenharia de prompt (prompt engineering), na privacidade de dados em fluxos de trabalho de IA e na gestão ética da tomada de decisão algorítmica.
Para ultrapassar o atual impasse, o governo do Reino Unido deve transitar de acordos amplos e não vinculativos para estratégias claras e orientadas para resultados. Os seguintes passos são essenciais para restaurar a credibilidade e promover a inovação genuína:
À medida que a Creati.ai continua a monitorizar a interseção entre política e inovação, torna-se claro que assinar o acordo é apenas o primeiro passo. O verdadeiro teste da estratégia de IA de um governo não reside em comunicados de imprensa ou MoUs, mas no trabalho árduo, detalhado e muitas vezes difícil de integrar estas tecnologias nas operações diárias do Estado. Até que o governo do Reino Unido demonstre vontade de passar da mesa de assinaturas para o teste-piloto, a sua ambição de um "serviço público liderado pela IA" continuará a ser, por agora, meramente aspiracional.