
人工智慧(Artificial Intelligence)工具的迅速採用帶來了前所未有的創新浪潮,但也暴露了新興 AI 基礎設施生態系統中的重大漏洞。在一項引人注目的進展中,LiteLLM——一家廣泛使用的 AI 網關(AI gateway)初創公司,作為開發者與各種大型語言模型(LLM)互動的橋樑——已正式切斷與第三方合規供應商 Delve 的所有聯繫。這一果斷舉措是在涉及憑證竊取惡意軟體的指控不斷增加,以及舉報報告表明該審計公司偽造了關鍵 合規(compliance) 認證之後做出的。
對於 AI 行業而言,這次決裂是對目前滲透到軟體供應鏈中的「信任赤字」的嚴厲提醒。隨著公司急於整合複雜的 AI 架構,對第三方安全和合規供應商的依賴也有所增加。然而,Delve 事件凸顯了即使是負責確保安全的人也可能成為漏洞的媒介,迫使像 LiteLLM 這樣的組織重新評估其對外部合作夥伴的審查流程。
圍繞 Delve 的爭議是多方面的,涉及技術安全故障和道德違規。據報導,當用戶發現一種複雜的憑證竊取 惡意軟體(malware) 變種時,情況進一步升級,該變種似乎與該供應商維護的整合點有關。此惡意軟體旨在蒐集敏感的 API 金鑰(API keys)和環境變數,實際上損害了任何依賴 Delve 軟體進行安全相關配置的組織的基礎設施。
除了惡意軟體事件外,隨著舉報人的指控,情況變得更加險惡。消息來源指出,Delve 涉嫌偽造合規審計數據,在數據處理和 AI 安全(AI security) 協議方面向客戶提供「健康」證明,而實際上審計並未按所述進行。
這些問題的曝光迫使人們對目前保護 AI 管道之工具的可靠性進行艱難的對話。Delve 事件構成的風險可分為兩個主要向量:
| 威脅向量 | 描述 | 潛在業務影響 |
|---|---|---|
| 技術惡意軟體 | 嵌入在第三方整合中的憑證竊取代碼 | 未經授權訪問 LLM API 金鑰和專有數據 |
| 合規欺詐 | 偽造的安全審計和虛假的認證報告 | 因不合規而導致的法律責任和用戶信任流失 |
對於 Creati.ai 的觀察者來說,LiteLLM 與 Delve 的情況並非孤立事件,而是 AI 安全成熟度下一階段的風向標。隨著企業將 AI 網關視為關鍵基礎設施,網關的安全性僅與其最薄弱的第三方依賴項一樣強。
當像 LiteLLM 這樣的公司整合工具以提高其合規地位時,它本質上是將一部分風險概況轉移給了該供應商。如果該供應商心懷不軌或安全習慣不佳,主要公司就會在不知不覺中繼承該風險。這在供應鏈中創造了一個駭客越來越想利用的「盲點」。
依賴自動化工具進行合規監控雖然高效,但不能取代對第三方供應商嚴格的人人參與(human-in-the-loop)驗證。目前的事件為行業提供了幾個關鍵教訓:
LiteLLM 果斷放棄 Delve 的決定是保護其生態系統的必要之舉。透過公開保持距離,這家初創公司將用戶安全置於維持與受損供應商的業務連續性之上。雖然這可能會為整合了 Delve 相關配置的客戶帶來暫時的干擾,但這被廣泛認為是確保 LiteLLM 網關長期完整性的負責任路徑。
行業現在將注意力轉向其他 AI 提供商將如何應對這一事件所設定的先例。隨著越來越多的初創公司和企業意識到合規供應商本身可能成為 供應鏈攻擊(supply chain attack) 的源頭,我們預計安全合作夥伴關係的構建方式將發生重大轉變。
Delve 事件是現代網絡安全現實中發人深省的一課。雖然「即插即用」安全合規的誘惑力很大,但它需要建立在必須持續驗證的絕對信任基礎之上。LiteLLM 處理此情況的透明方法為其他初創公司提供了藍圖:面對安全故障,果斷的行動和清晰的溝通是維護用戶群信任的唯一途徑。隨著 AI 領域持續成熟,安全性仍將是可持續平台與那些在隱藏漏洞壓力下崩潰的平台之間最關鍵的區別。