
當英國政府在幾個月前與 OpenAI 簽署了一份備受矚目的諒解備忘錄(Memorandum of Understanding, MoU)時,這項公告被視為國家數位未來的里程碑時刻。部長們稱讚這一合作夥伴關係是「解決社會最大挑戰」以及利用人工智能改造公共服務提供的催化劑。然而,八個月後,隨著塵埃落定,一個嚴酷的現實浮現:政府尚未在整個公共部門對 OpenAI 的技術進行任何實質性的試驗。
對於一個一再自詡為人工智能治理與採用全球領導者的政府來說,進展的缺乏引發了令人不安的問題。當我們審視英國人工智能整合的現狀時,很明顯,人工智能主導改革的政治修辭與政府部門的運作現實之間存在顯著脫節。
這次審查源於人工智能諮詢公司 Valliance 提交的一項資訊自由法(Freedom of Information, FOI)請求。該請求旨在澄清根據上述諒解備忘錄進行的試驗。科學、創新與技術部(Department for Science, Innovation and Technology, DSIT)的答覆非常直截了當:該部門沒有關於此類試驗的資訊,也未根據該協議進行任何測試。
雖然政府指出司法部(Ministry of Justice, MoJ)對 ChatGPT 的有限使用是進展的象徵,但行業觀察人士認為,這幾乎沒有觸及承諾的表面。該諒解備忘錄旨在走得更遠,目標是確定在整個政府和私營部門部署先進模型的機會。相反,批評者認為,政府的做法其特點是「意圖失敗」,而非技術瓶頸。
下表列出了政府人工智能合作夥伴關係的既定目標與迄今為止記錄的進展之間的差異。
| 層面 | 既定目標 | 目前狀態 |
|---|---|---|
| 戰略性人工智能部署 | 在政府職能中部署先進的人工智能模型 | 僅限於司法部中孤立的小規模 ChatGPT 使用 |
| 基礎設施目標 | 建設「Stargate UK」並部署 8,000 顆 Nvidia 晶片 | 進展停滯;對完成期限存在重大疑慮 |
| 問責制 | 建立透明、可衡量的公眾利益 | 缺乏明確的指標或標準化的採購監督 |
| 合作研究 | 在安全和創新方面進行積極、持續的合作 | 主要限於非實驗性的安全研究 |
缺乏實質性進展不僅僅是運作上的失敗;它觸及了政府應如何採購和管理前沿技術的核心。來自 Ada Lovelace 研究所和其他政策智庫的專家對這些合作夥伴關係的「自願」性質表示了合理的擔憂。
與傳統的採購流程(受嚴格的公開招標、問責制和透明度規則約束)不同,這些高層級的諒解備忘錄通常在監管灰色地帶運作。通過繞過標準協議,政府面臨著創造供應商「鎖定」局面的風險,即公共服務過度依賴特定的專有產品,而沒有讓這些產品接受公共部門部署所需的嚴格審查。
此外,公眾正變得越來越警惕。民調顯示,絕大多數公民擔心政府可能優先考慮人工智能行業的利益,而非保護公眾的基本需求。當政府與像 OpenAI、Google DeepMind 和 Anthropic 等科技巨頭簽署協議時,隱含著一個承諾,即這些交易將直接改善公共生活。當這些結果未能實現時,這會削弱對負責管理人工智能轉型的機構的信任。
從備忘錄轉向實施的猶豫——通常被描述為對安全的謹慎做法——實際上可能適得其反。雖然嚴格的安全測試(如英國人工智能安全研究所進行的測試)至關重要,但它不應成為行政癱瘓的藉口。
公共部門 AI 的採用不僅僅是選擇一個模型;它關乎建設數位基礎設施、提升勞動力技能以及重新設計官僚流程以處理人工智能整合。由於未能啟動有意義的試驗,英國政府正錯失關鍵的「邊做邊學」機會。每延遲一個月,公務員體系就多一個月未能接觸到提示工程(prompt engineering)、人工智能工作流中的數據隱私(data privacy)以及算法決策(algorithmic decision-making)倫理管理等細微差別。
為了突破目前的僵局,英國政府必須從廣泛、不具約束力的協議轉向明確、以結果為導向的戰略。以下步驟對於恢復公信力和促進真正的創新至關重要:
隨著 Creati.ai 繼續監測政策與創新的交匯點,顯而易見的是,簽署協議只是第一步。政府人工智能戰略的真正考驗不在於新聞稿或諒解備忘錄,而在於將這些技術整合到國家日常運作中那些瑣碎、詳細且往往困難的工作。在英國政府展現出從簽署桌走向試點測試的意願之前,其對「人工智能主導的公共服務」的雄心目前在很大程度上仍將只是願景。