
在人工智慧(Artificial Intelligence)快速發展的版圖中,長久以來討論的主題多集中在生產力提升和創意突破的潛力上。然而,安全研究人員的實驗室正揭示出一個發人深省的現實:人工智慧的雙重用途性質正展現出一種可衡量、具侵略性且令人深感擔憂的發展軌跡。一項最近的研究揭示,人工智慧系統的攻擊性網路能力每 5.7 個月就會翻倍,這一速度預示著企業和國家在處理數位防禦時必須進行緊急轉變。
在 Creati.ai,我們始終追蹤創新與安全之間的交集。最新的這項數據點不僅僅是統計上的異常現象;它代表了人工智慧軍備競賽的重大升級。當開發者專注於構建更強大、更擅長推理的模型時,同樣的底層架構也被證明在偵察、漏洞利用生成以及複雜的社交工程(Social Engineering)方面表現出色——而這些正是現代網路戰爭(Cyber Warfare)的支柱。
近期擔憂的核心在於改進週期的快速循環。衡量人工智慧的「攻擊性」涉及分析其執行高級網路行動的能力——這些任務以前需要技術高超的人類滲透測試員。5.7 個月的翻倍數字表明,曾經與自動化網路攻擊相關的阻力正在以遠超過傳統 網路安全(Cybersecurity) 修補週期的速度消散。
研究人員利用一個結構化框架來評估這些能力,重點關注人工智慧代理(AI Agents)自主識別漏洞、起草漏洞利用程式並執行多階段攻擊鏈的能力。與靜態模型不同,這些代理展現出的適應能力使其能夠繞過傳統的基於特徵的檢測系統。透過對比最近的大型語言模型(Large Language Models,LLMs)與標準化網路安全基準的性能指標,研究團隊發現了效能呈現一致的指數級增長。
這種加速主要受三個因素驅動:
這種指數級增長的影響是深遠的。這些能力的民主化意味著惡意行為者的准入門檻正在降低。攻擊者不再需要是高技術的程式碼編寫者;他們只需要成為一名熟練的提示詞工程師(Prompt Engineer)或是專門的人工智慧驅動攻擊工具的使用者。
為了理解傳統威脅與當前人工智慧驅動環境之間的對比,我們梳理出防禦需求的各項核心轉變。
| 類別 | 傳統方法 | AI 增強型攻擊策略 |
|---|---|---|
| 偵察 | 手動掃描、開放網路情報(OSINT) | 自動化、預測性的攻擊面映射 (Attack Surfaces) |
| 漏洞利用開發 | 人工主導的研究(CVEs) | 自主零日漏洞(Zero-day)發現 與有效負載生成 |
| 社交工程 | 通用的釣魚(Phishing)活動 | 高度個性化、對話式的 多模態詐騙 |
| 執行速度 | 數天或數週 | 數秒至數分鐘 |
這些數據清楚地說明了為什麼依賴識別已知威脅的傳統反應式安全模型正在失效。人工智慧增強的攻擊能力不僅僅是模仿人類行為;它優化了行為,消除了限制人類攻擊者的疲勞、錯誤和時間約束。
當我們面對這些技術現實時,對話自然轉向了治理與法律框架。近期產業內的討論,包括來自 The Register 等平台的見解,強調了複雜的法律責任問題。當一個自主的人工智慧代理執行網路攻擊時,誰該承擔責任?
法律責任是歸屬於模型開發者、代理部署者還是終端用戶,目前仍處於法律灰色地帶。隨著攻擊能力的翻倍,釐清這些角色的迫切性變得至關重要。如果一個基礎模型(Foundational Model)被用來創建武器化的代理,產業必須確定:
鑑於 人工智慧風險(AI Risk) 的快速演變,單純依賴傳統的靜態網路安全邊界已不再足夠。組織必須採取主動、適應性的立場,以減輕日益強大的攻擊性人工智慧所帶來的危險。
關於攻擊性網路能力 5.7 個月翻倍週期的研究警告,對於 人工智慧安全(AI Safety) 社群來說,這是一個至關重要的行動呼籲。它提醒我們,技術進步從來不是價值中立的。同樣可以用來發現新藥候選物或優化供應鏈的推理能力,也可以被用來利用支撐我們數位基礎設施的漏洞。
對於 網路安全 專業人士而言,「一勞永逸」的安全時代已經結束。我們正進入一個持續、自動化衝突的時代,在這個時代中,適應速度是成功的首要指標。責任不僅在於政策制定者建立問責框架,也在於科技產業將安全優先作為開發每個模型的首要特性。
在 Creati.ai,我們相信理解這些風險是邁向構建更具韌性的未來的首要步驟。目標不是停止進步,而是確保我們的防禦機制能與我們最強大的創新中所出現的威脅同步演進。我們必須將這 5.7 個月的翻倍指標視為迫切性的基準,確保我們處理 人工智慧風險 的集體方法與我們努力保護的技術一樣具有動態性和創新性。