
在一項揭示國防領域管理生成式 AI(Generative AI)日益複雜性的消息中,已有報導證實美國國家安全局(NSA)正在積極使用 Anthropic 的「Mythos」AI 工具。儘管五角大廈近期將 Anthropic 列入了供應鏈風險清單,但此次部署仍在情報行動與國防採購政策之間製造了一個顯著的摩擦點。作為負責訊號情報與網路安全的關鍵機構,美國國家安全局(NSA)決定整合最先進的 AI 模型,這表明了一種迫切的營運需求,在某些情況下,這種需求可能會優先於行政分類。
Anthropic 以其對「憲法級 AI」(Constitutional AI)及安全性對齊語言模型的重視而聞名,該公司推出的 Mythos Preview 是一款高效能生成式工具,具備處理海量情報數據與增強推理能力的能力。對於情報界而言,這類工具的前景具有變革性:從人工數據處理轉向對各類多源報告進行自動化、高層次的綜整。
據信,Mythos 的內部部署有助於 NSA 分析師處理複雜的官僚數據流,並識別傳統舊有系統可能忽略的模式。然而,該工具的有效性是一把雙刃劍,其效用與訓練數據及企業基礎設施的不透明性形成了鮮明對比。
五角大廈將 Anthropic 標記為「供應鏈風險」的決定,植根於一套嚴格但刻板的架構,旨在根據潛在的外國影響、數據主權顧慮及架構依賴性對供應商進行審查。該分類並未明確禁止使用此類模型,但為國防部(DoD)各組成部門製造了重大的監管障礙。
標準情報需求與當前供應鏈調查結果的簡要比較如下:
| 評估標準 | 國防部供應鏈標準 | 觀察到的風險因素 |
|---|---|---|
| 數據主權 | 要求完全基於美國境內的雲端隔離 | 雲端基礎設施的透明度 |
| 道德對齊 | 符合憲法的模型 | 對未經審查的訓練數據集的依賴 |
| 採購政策 | 黑名單或受限狀態 | 供應商整合與跨境合作夥伴關係 |
儘管五角大廈有相關指定,但 NSA 持續使用 Anthropic 的工具引發了關於美國政府如何管理 AI 採用的根本性問題。NSA 的任務授權與廣泛的國防部不同,往往需要使用現有最先進的技術,以保持對國家級對手的資訊優勢。
產業分析師認為,NSA 可能正在利用「圍牆花園」(walled-garden)部署——即將 AI 與外部網路進行沙盒隔離——以緩解五角大廈所指出的風險。透過在氣隙(air-gapped)或高度受控的環境中部署 Mythos,該機構有效地規避了與第三方生成式 AI 常見的風險(如數據外洩或模型中毒),同時仍能獲得該技術帶來的效益。
NSA 與五角大廈在 Anthropic 軟體問題上的歧異,體現了美國聯邦政府內部的更大掙扎:將 AI 採購標準化的迫切需求,與保持技術靈活性的必要性之間的對立。如果情報機構被迫在嚴格的行政合規性與營運優越性之間進行選擇,只要他們能夠執行內部技術保障措施,幾乎可以肯定他們會選擇後者。
此外,這種情況催化了潛在的政策改革。未來的採購週期可能會轉向「風險調整後採用」(Risk-Adjusted Adoption),重點不僅在於公司是否被列入黑名單,而在於 AI 實作本身的技術架構。NSA 的舉動表明,「安全」在生成式 AI 時代的定義,正從二元的「安全/不安全」標籤演變為動態的、基於配置的評估。
有關 NSA 與 Mythos AI 的情況不太可能平息。隨著政治審查的加強,透明度將成為企業尋求政府合約時的主要貨幣。對於 Anthropic 而言,挑戰在於如何將其企業架構與開發實踐,與國防部供應鏈安全部門日益嚴格的要求相互協調。
在 Creati.ai,我們將這種張力視為顛覆性技術生命週期中的自然演變。NSA 使用這項技術的意願強調,儘管存在風險,但增強情報能力的潛力被視為一種重於行政謹慎的必要性。展望未來,產業必須觀察五角大廈如何調整其採購架構,以更好地納入 AI 的動態本質,確保安全協定不會意外地扼殺保護國家所需的關鍵工具。