
本週,生成式 AI(Generative AI)的格局發生了劇烈變化。來自英國 AI 安全研究所(UK AISI)的最新數據顯示,OpenAI 的最新版本 GPT-5.5 在性能基準測試中已達到與 Anthropic Mythos 相當的水準。這些發現源於嚴格且受控的網絡攻擊模擬,引發了關於前沿模型(frontier models)能力以及在日益動盪的數位生態系統中對強大安全防護措施迫切需求的激烈討論。
隨著業界越來越接近許多研究人員所定義的「代理自主性(agentic autonomy)」,這些模型執行進攻性網絡行動的能力已成為衡量成功的主要指標,也成為決策者焦慮的重要來源。
英國 AI 安全研究所的評估側重於模型在執行複雜 網絡安全 任務中的熟練程度,範圍涵蓋漏洞評估到自動化漏洞利用生成。儘管前幾代大型語言模型(LLM)在技術情境下的多步驟推理方面表現吃力,但 GPT-5.5 和 Anthropic Mythos 已展現出令人震驚的複雜度。
根據報告,這些模型針對模擬現實世界威脅向量的一系列標準化挑戰進行了測試。下表總結了評估期間觀察到的對比性能:
| 性能指標比較 | GPT-5.5 能力 | Anthropic Mythos 能力 |
|---|---|---|
| 漏洞檢測 | 高精度,極低誤報率 | 舊代碼中有高檢測準確率 |
| 漏洞利用生成 | 先進的邏輯推理框架 | 流線型的零日漏洞(zero-day)分析 |
| 安全防護措施 | 增強型「天鵝絨(Velvet)」限制協議 | 整合式憲法 AI(Constitutional AI)過濾 |
| 自主持久性 | 具備迭代安全繞過能力 | 專注於防禦性修復 |
伴隨這些發現發布的一個重大進展是 OpenAI 決定限制對 GPT-5.5 的訪問。業內人士將此描述為「天鵝絨」策略——一種分層部署方案,將該模型最強大的網絡進攻能力隱藏在專用 API 金鑰和嚴格的企業驗證流程之後。
這種防禦姿態標誌著與過去快速公開測試(open-beta)發布模式的背道而馳。OpenAI 似乎正在吸收安全研究人員發出的警告,選擇限制模型的公共接觸範圍,以防止災難性的濫用。透過限制存取,OpenAI 旨在平衡市場領導地位的競爭需求與防止自動化網絡武器擴散的道德使命。
OpenAI 與 Anthropic 之間的平起平坐為 AI 社群提出了一個更廣泛的問題:在這種前所未有的速度下,創新能與安全共存嗎?
從歷史上看,競爭推動了性能。然而在今天,競爭已與「安全瓶頸」密不可分。隨著兩家公司都達到相似的進攻潛力,差異化因素正在發生轉變——不再是看誰能構建最強大的模型,而是看誰能在不犧牲實用性的前提下,最有效地約束它。
在 Creati.ai,我們監控這些發展不僅將其視為技術進步的指標,更將其視為我們未來數位基礎設施架構完整性的警示信號。GPT-5.5 與 Anthropic Mythos 能力的趨同表明,我們正進入一個「網絡韌性 AI(Cyber-Resilience AI)」時代。
雖然機器自主識別漏洞的前景對網絡安全專業人士來說是一個福音——他們可以利用這些工具以極致速度修補軟件——但同樣的能力落在惡意行為者手中,仍然是對企業和國家安全最重大的威脅。
AI 安全社群的共識很明確:文件記錄和透明度不再是可選項。隨著 OpenAI 和 Anthropic 繼續突破能力的邊界,整個行業必須轉向「安全設計(Security-by-Design)」。這意味著在一個模型被認為足夠純熟並可大規模發布之前,其安全架構必須與其推理引擎同樣先進。
展望今年餘下的時間,焦點無疑將從原始智慧指標轉向這些「天鵝絨」限制的有效性。如果 OpenAI 能夠在保持競爭優勢的同時成功管理 GPT-5.5 的分發,它可能會為行業如何處理下一代超級智慧系統樹立新的藍圖。然而就目前而言,整個行業仍處於微妙的觀望狀態,密切關注著這兩大巨頭測試其各自創造物的極限。