
大型語言模型(LLMs)的快速發展引領了一個生產力與創造力的新時代。然而,隨著這些強大工具變得日益普及,一個令人擔憂的副產品隨之出現:人工智慧的武器化。近期的調查報告與網路安全研究顯示,AI 模型正越來越多地被用於執行極具說服力的網路釣魚攻擊與複雜的社交工程活動。在 Creati.ai,我們認為有必要深入剖析 AI 創新表象下的安全挑戰,這些挑戰正威脅著數位基礎設施的信任基石。
安全研究人員長期以來一直警告網路犯罪的「大眾化」,但我們今天所見證的轉變是史無前例的。過去的網路釣魚依賴充滿語言錯誤的粗糙郵件,而如今由 AI 驅動的攻擊則利用大型語言模型的生成能力,製造出高度個人化、情境感知且語法無懈可擊的通訊內容。
要理解為何傳統防禦機制陷入困境,我們必須分析攻擊者如何挪用合法的 生成式 AI(Generative AI) 工具。這些模型本質上是模式匹配引擎;當被要求模仿人類交流時,它們擅長採取特定的語氣、專業術語以及在真實互動中常見的說服性結構。
與傳統的網路釣魚模板不同,AI 驅動的系統能夠攝取大量數據(如社交媒體活動、公開商業記錄及電子郵件存檔),以針對特定目標量身打造攻擊內容。這種過程常被稱為「大規模魚叉式網路釣魚」,顯著降低了惡意行為者的進入門檻。
| 特性 | 傳統網路釣魚 | AI 增強型網路釣魚 |
|---|---|---|
| 策略 | 大規模、非針對性的轟炸 | 高度情境化的目標鎖定 |
| 內容 | 標準化模板 | 動態生成的敘事 |
| 開發時間 | 高人工成本 | 秒級自動化生成 |
| 準確性 | 常因語法/錯誤而被察覺 | 極高的人性化細微差別 |
這些模型在冗長、多輪對話中保持「人設」的能力,使其對於商業電子郵件詐騙(BEC)計畫尤其危險。AI 現在能夠與員工進行持續對話,在請求電匯資金或披露憑證之前,逐步建立信任關係。
這項研究突顯了科技產業的一個基本緊張關係:AI 的「雙重用途」本質。開發者設計這些系統是為了提供有益的協助,然而,允許 AI 起草禮貌專業請求的相同功能,也讓它能被用來起草極具說服力的詐騙內容。
近期涉及未經授權存取 AI 平台的事件,迫使企業必須重新評估其防護欄。當惡意行為者獲得功能強大且未受審查的大型語言模型時,其 攻擊能力 將被放大。網路安全專家認為,雖然 AI 公司已經實施了安全過濾,但「越獄」模型或開源替代方案的興起,創造了一個危險的環境,使得這些防禦措施很容易被規避。
隨著我們向前邁進,對話必須從單純的憂慮轉向主動的緩解。加強我們的數位邊界需要一種多層次的方法,承認 AI 驅動威脅的現實。
AI 模型作為網路釣魚工具的出現,反映了 網路安全 領域更廣泛的轉型。雖然 AI 的攻擊能力令人警惕,但這些威脅仍然只是更廣泛技術演進的一部分。在 Creati.ai,我們倡導全面的產業合作,讓 AI 公司、網路安全研究人員和決策者攜手合作,建立道德標準和強大的技術防禦體系。
AI 的未來不需要由這些惡意用例來定義。透過將安全視為 AI 開發的基礎組成部分而非事後補救,科技社群能確保這些強大工具在推動進步的同時,免受那些企圖操縱它們進行破壞的人之侵害。當我們審視新興威脅的軌跡時,警惕性仍將是我們網路安全工具箱中最有力的資產。