
在一項標誌著全球網絡安全架構發生關鍵轉變的發展中,Google 已正式確認其成功攔截了一場利用人工智慧(Artificial Intelligence)製造零時差漏洞(Zero-Day Exploit)的大規模攻擊活動。此事件由 Google 的精英威脅分析團隊記錄,它首次提供了確鑿的證據,表明老練的駭客組織已不再僅限於推測性的應用,而是主動運用生成式 AI(Generative AI)以工業級的精確度將漏洞武器化。
雖然 AI 長期以來一直被吹捧為一種軍民兩用技術,但從理論風險轉變為實際的漏洞利用,標誌著一個發人深省的里程碑。在 Creati.ai,我們持續追蹤機器學習模型在安全領域的演變;然而,這一最新事件證明了先進網絡戰的進入門檻已大幅降低。
根據來自 Google 安全研究人員的調查結果,參與此項攻擊活動的威脅行為者並未依賴傳統的手動程式碼分析。相反,他們利用客製化調整的 AI 模型來掃描龐大的軟體儲存庫以尋找潜在缺陷。其主要目標是加速發現並利用 零時差(zero-day) 漏洞——這是一種開發人員尚不自知且不存在任何修補程式的缺陷。
AI 的使用使攻擊者能夠以前所未有的速度在程式碼庫中進行迭代,識別出通常需要人類研究數月才能發現的細微邏輯錯誤。透過將漏洞利用開發週期自動化,攻擊者有效地將勞力密集的手動任務轉化為自動化流程,從而對全球基礎設施造成大規模毀滅性攻擊的可能性。
從人類主導的研究轉向機器生成的攻擊鏈,改變了防禦的基本動態。我們在 Creati.ai 的分析突顯了此次事件所體現的威脅態勢中的三個顯著轉變:
| 能力面向 | 傳統網絡攻擊 | AI 加速攻擊 |
|---|---|---|
| 發現時間 | 數月的人力工作 | 數小時的自動搜尋 |
| 可擴展性 | 受限於研究人員數量 | 可透過運算能力擴展 |
| 隱蔽性與精確度 | 需要手動精心設計 | 優化以規避異常偵測 |
這一事件將 AI 安全(AI Safety) 的討論推向了國家和企業安全議程的最前線。駭客改寫零時差漏洞程式碼的能力表明,目前管理大型語言模型(LLMs)和程式碼生成工具的基礎安全協議尚顯不足。儘管主要的 AI 開發商已實施防護圍欄以防止惡意程式碼的生成,但這些保護措施往往可以透過提示詞工程(Prompt Engineering),或透過在易受攻擊的舊有程式碼上訓練私有的微調模型來規避。
Google 在消除此次攻擊活動中的迅速反應,證明了防禦性 AI 的實用性。透過利用其自身的機器學習驅動威脅偵測系統,Google 得以在 AI 製造的漏洞攻擊接觸到大規模目標之前,識別出其產生的可疑流量模式。這創造了一種持續性的「軍備競賽」,防禦性 AI 必須不斷超越攻擊性 AI 的能力。
為了應對這些新興風險,安全基礎設施必須進化。利益相關者應優先考慮採取以下防禦姿態:
Google 報告的這一事件為科技產業敲響了警鐘。它強調了「自動化駭客攻擊」時代並非遙遠的未來情境,而是當前的現實。隨著這些工具變得越來越易於取得,除非優先對 網絡防禦(cyber defense) 進行關鍵投資,否則機構防禦者與資金充足、配備 AI 的威脅行為者之間的差距將持續擴大。
在 Creati.ai,我們強調主要挑戰在於「時間的不對稱性」。AI 驅動的攻擊者只需要成功一次,而防禦者則必須每一次都成功。網絡安全(Cybersecurity) 與人工智慧的交集將決定未來十年的技術穩定性。展望未來,像 Google 這樣的公司在報告這些威脅時所展現的透明度,對於建立集體、知情的防禦體系至關重要。
展望未來,產業領導者應預期聯邦監管機構將針對開源編碼代理的部署,以及提供給與已知攻擊組織有關聯之實體的運算資源加強限制。如果沒有協調一致的努力來規範如何將 AI 模型應用於軟體安全,大規模、自動化的核心基礎設施漏洞攻擊風險將可能持續存在,這將對數位時代的數位完整性構成重大挑戰。