
在日益受人工智慧(Artificial Intelligence)影響的數位環境中,人類互動與演算法偽造之間的界線正以驚人的速度變得模糊。2026 年 2 月 25 日(週三),OpenAI 發布了最新的全面威脅報告,題為「打擊 AI 的惡意用途」(Disrupting Malicious Uses of AI),深刻揭示了不法分子如何將 ChatGPT 武器化。該報告詳細介紹了網路犯罪手段的高級演變,強調了三種主要的濫用途徑:情感操縱的交友詐騙、冒充法律專業人士,以及旨在破壞民主穩定的國家支持 影響力行動。
對於行業觀察者和網路安全專業人士而言,這份報告是一個關鍵的風向標。它標誌著生成式 AI(Generative AI)不再僅僅是提高效率的工具,而已成為有組織犯罪和地緣政治對手的力量倍增器。這些發現強調了 AI 軍備競賽中的一個關鍵時刻,即那些為生產力提供動力的相同能力,正被重新利用於在全球範圍內自動化欺詐行為。
報告中最令人擔憂的發現之一是浪漫詐騙的工業級自動化,這通常被稱為「殺豬盤」(pig butchering)詐騙。OpenAI 的調查揭露了主要在東南亞(特別是柬埔寨和緬甸)以及奈及利亞運作的大型網絡,這些網絡已將 ChatGPT 整合到其日常運作中。
與過去手動、勞動力密集型的詐騙不同,這些新的運作利用 AI 創建了極具吸引力、一致且語法完美的虛假人格。報告描述了犯罪集團如何使用該模型生成利用受害者情感漏洞的劇本。通過向 AI 提供有關目標興趣和溝通風格的具體細節,詐騙者可以同時維持數百段「關係」,且其個性化程度在以前是無法想像的。
語言障礙曾是許多潛在受害者的天然防火牆,但現在已被有效拆除。報告指出,非英語國家的操作員正在利用 ChatGPT 的翻譯和文化細微差別處理能力,以母語級別的流暢度針對美國和歐洲的受害者。這些 AI 輔助的劇本以驚人的效率將對話引向詐騙投資計劃,將情感連結轉化為財務毀滅。
雖然浪漫詐騙針對的是內心,但新一波的欺詐則針對公民對法律的恐懼。OpenAI 的報告詳細介紹了「虛假律師」方案的激增,犯罪分子利用 ChatGPT 冒充法律專業人士。這種濫用途徑特別具有隱蔽性,因為它利用了人們對法律函件固有的權威偏見。
詐騙者正利用該模型生成高度技術化、聽起來權威的法律文件,包括律師函、法院傳票和催告通知。這些文件通常引用真實法律並使用正確的格式,使得外行人無法將其與合法的法律文件區分開來。
報告強調了一種特定模式,即這些「虛假律師」被用作追討詐騙中的第二層手段。在受害者被交友詐騙或投資欺詐騙取錢財後,會有一家所謂的「法律事務所」與其聯繫,承諾追回損失的資金——但需支付一定費用。AI 會生成極具說服力的案件評估和「保證」追回計劃,說服絕望的受害者支付更多金錢。這種分層方法展示了網路犯罪網絡令人不安的戰略規劃水平。
除了金融犯罪,該報告還揭示了 AI 誤用 的地緣政治影響。OpenAI 識別並打斷了數個與俄羅斯、中國和伊朗國家行為者相關的秘密影響力行動。這些行動利用 ChatGPT 生成大量內容,旨在塑造輿論並挑起不和。
報告詳細說明了與俄羅斯有關的團體如何參與「氣氛編碼」(vibe coding)——這個術語用於描述生成與特定文化或政治「氣氛」一致的程式碼和劇本,以繞過內容過濾器並在特定線上社群中引起共鳴。此外,這些行為者正在使用 AI 調試和改進惡意軟體,降低了發起網路攻擊的技術門檻。
與中國相關的行動,例如臭名昭著的「垃圾偽裝」(Spamouflage)網絡,被觀察到利用該模型生成社交媒體評論和貼文,在推廣國家敘事的同時批評民主機構。這些行動的規模巨大,AI 使得跨多種語言和平台快速產出內容成為可能,增加了社交媒體防禦團隊在溯源和緩解工作上的難度。
為應對這些不斷升級的威脅,OpenAI 概述了一項多管齊下的防禦策略。該公司強調其對「民主化 AI」(Democratic AI)的承諾,這是一項核心在於防止威權主義誤用並保護資訊生態系統完整性的理念。
報告顯示 OpenAI 已經封禁了數千個與這些惡意網絡相關的帳號。然而,該公司承認封禁帳號就像一場「打地鼠」遊戲。為了提供更系統性的保護,OpenAI 正在大力投入於安全信號檢測——訓練模型識別詐騙者和宣傳者的行為模式,而不僅僅是掃描不良關鍵字。
他們戰略的一個關鍵部分涉及與「前沿聯盟」(frontier alliances)的合作——與其他 AI 實驗室、政府和 網路安全 公司合作共享威脅情報。通過建立一個共享的威脅特徵資料庫,該行業旨在建立起針對這些演變戰術的集體免疫力。
下表總結了 2026 年報告中識別的關鍵威脅途徑及 OpenAI 相應的緩解策略:
表 1:OpenAI 2026 年威脅報告摘要
| 威脅途徑 | 運作方式 | OpenAI 緩解策略 |
|---|---|---|
| 交友詐騙 | AI 生成虛假人格、即時翻譯、情感操縱劇本。 | 行為模式分析以檢測自動化的浪漫互動;與已知的詐騙 IP 段進行交叉比對。 |
| 虛假律師 | 生成偽造法律文件、恐嚇手段、追討詐騙。 | 強化模型訓練以拒絕生成非自願法律威脅的請求;為 AI 生成文本添加浮水印。 |
| 影響力行動 | 大規模內容生成(「垃圾偽裝」)、惡意軟體的「氣氛編碼」、政治宣傳。 | 與社交媒體平台合作識別 AI 生成的機器人網絡;國家行為者溯源團隊。 |
| 網路攻擊 | 調試惡意軟體程式碼、生成網路釣魚模板。 | 針對與已知漏洞相關的程式碼生成設置拒絕機制;與網路安全公司建立合作夥伴關係。 |
OpenAI 發布的這份報告深刻地提醒我們,未來的工具正被過去的幽靈所利用。隨著 AI 模型變得更加強大,高級欺詐和影響力行動的准入門檻持續降低。
對於 Creati.ai 和更廣泛的科技社群來說,訊息很明確:創新不能在真空環境中存在。更強大 AI 的開發必須配備同樣強大的安全機制。涉及「虛假律師」和工業級交友詐騙的事件不僅僅是孤立案例;它們是一個新的數位現實的早期預警信號,在這個現實中,信任是首要受害者。
OpenAI 在詳細說明這些濫用行為方面的透明度是積極的一步,但它也凸顯了一家公司監管網路能力的局限性。對抗 AI 賦能的誤用需要協調一致的全球努力,結合技術保障、大眾意識和健全的法律框架,以確保人工智慧仍然是人類進步的工具,而非剝削的武器。