
在全球人工智慧(AI)監管的版圖中,南非政府正式撤回其國家 AI 政策草案,這一發展令人擔憂。此前一項內部調查證實,該文件原本旨在作為國家技術未來的藍圖,卻充斥著由人工智慧捏造的引文與參考資料,導致南非政府做出此項決定。
此事件為關於生成式 AI(Generative AI)工具可靠性的持續爭論立下了一個重要的轉折點。儘管全球各國政府正競相建立框架以管理人工智慧的快速擴散,但此事件凸顯了一個自相矛盾的危險:即使用正在審查中的技術來起草旨在管理該技術本身的規則。在 Creati.ai,我們長期以來一直提倡對合成內容採取「人機協作」(human-in-the-loop)的方法,而此案例對全球行政機構而言是一個嚴厲的警示。
在對文件進行標準合規審查時,發現了「幻覺」(hallucination)——這是一個用於描述 AI 模型產生虛假且聽起來言之鑿鑿的資訊的術語。該政策草案旨在為合乎道德的 AI 使用、數據隱私和包容性創新建立指導方針,卻依賴於根本不存在的學術論文與法律判例。
對這些自動化工具的依賴,導致了一份表面上結構專業但缺乏可驗證經驗基礎的草案。對於政策制定者而言,教訓顯而易見:現今的大型語言模型(LLM)優先考慮的是語言機率而非事實準確性。若沒有嚴格的人工核實,這些系統可能會生成聽起來權威但卻是虛假的資訊,從而溜過標準的編輯工作流程。
| 行業 | AI 幻覺的主要風險 | 潛在後果 |
|---|---|---|
| 政府政策 | 機構信譽受損 | 立法失敗與公眾不信任 |
| 醫療保健 | 誤診與不正確的治療方案 | 嚴重的患者安全疑慮 |
| 財務報告 | 不準確的數據分析 | 市場波動與法律責任 |
撤回 南非的政策草案,迫使各公共機構重新評估如何將 AI 整合到營運流程中。政策制定者過去常轉向使用 AI 來簡化複雜立法的起草過程並總結公眾意見。然而,南非的事件揭示了這些工具「黑箱」的本質,對民主治理所需的透明度構成了獨特的挑戰。
AI 政策領域的專家認為,這起事件可能會促使政府部門內部進一步收緊法規。展望未來,處理敏感政策起草的實體很可能會採取以下措施:
這對全球 AI 監管具有深遠的影響。隨著各國政府試圖跟上人工智慧快速發展的步伐,他們不斷受到誘惑,希望透過自動化手段來填補資源缺口。然而,南非的經驗強調,在立法研究上走捷徑不僅僅會產生錯誤,更會損害公眾對 AI 監管本身的看法。
公眾信任是有效監管的基石。如果公民無法相信政府是在利用經核實的事實來建設 AI 的未來,那麼未來政策的可行性將受到質疑。此事件是一個迫切的提醒:雖然 AI 是功能強大的生產力倍增器,但它並不是——也不應被視為——嚴謹人文研究的替代品。
對於希望在高風險環境中部署 AI 工具的組織而言,前進的方向必須由懷疑態度與穩健的驗證機制來定義。在缺乏問責結構的情況下,若依賴生成式模型來「承擔繁重工作」,會造成一種危險的虛假安全感。
組織應將其內部政策正式化,以體現從近期事件中汲取的教訓:
展望未來,目標應是在不犧牲基於事實的治理核心原則的前提下,利用人工智慧的效率。Creati.ai 將持續關注南非的情況,並在政府準備重啟起草程序時,針對他們如何將更安全的流程整合到監管工作中,提供透明的更新內容。面對 AI 需求的興起,必須同步提升人工的盡職調查能力。