
在人工智慧(Artificial Intelligence,AI)快速發展的格局中,對使用者感知的理解很大程度上仍停留在推測或有限的區域性民意調查。這種情況在 2026 年 3 月發生了顯著變化,當時 Anthropic 發布了一項前所未有的全球研究綜合結果。透過對來自 159 個國家的 80,000 多名 Claude 使用者進行調查,Anthropic 提供了迄今為止最詳盡的地圖,描繪了人類如何應對 AI 整合過程中的「光明與陰影」。
這項於 2025 年 12 月進行的研究,超越了「你喜歡 AI 嗎?」這種簡單的二元問題,轉而探索個人將 AI 融入其職業與個人生活的細微且往往矛盾的方式。研究結果揭示了一個以鮮明悖論為特徵的景象:吸引使用者使用 AI 的特質——生產力、陪伴感和認知輔助——與引發他們對依賴和被取代深感焦慮的特質完全相同。
這份報告最值得注意的方面之一不僅在於產出的數據,還在於數據的收集方式。Anthropic 利用了一個名為「Anthropic 訪談者」(Anthropic Interviewer)的內部系統,這是 Claude 的一個版本,專門配置用於大規模進行對話式的定性訪談。
這種方法並非依賴僵化的、基於勾選框的問卷調查,而是允許動態的、迭代的對話。系統詢問使用者的動機、挫折感以及他們對該技術的長期願景。透過處理涵蓋 70 種不同語言的 80,508 次互動,研究團隊能夠捕捉到傳統民意調查方法經常遺漏的人機關係「質地」。這種方法凸顯了業界日益增長的趨勢:利用 AI 來更好地理解 AI 對人類體驗的影響。
該研究描繪了一幅對 AI 潛力大體持樂觀態度的圖像,67% 的受訪者對該技術表達了積極情緒。對於這些使用者來說,Claude 及類似大型語言模型(Large Language Models)的價值主張是明確且多方面的。
報告確定了 AI 正在積極增強人類能力的幾個核心領域:
然而,採用 AI 的「光明」面必然伴隨著「陰影」。研究強調,AI 提供的便利性創造了一系列獨特的弱點。隨著使用者將更多任務轉交給 AI——從起草電子郵件到撰寫程式碼——他們越來越意識到自己技能萎縮的可能性。
研究中確定的主要焦慮並非一定是科幻小說中那種 AI「接管」世界,而是關於人類行為和能力中細微、日常的變化:
為了更好地理解使用者體驗的分歧,下表總結了 Anthropic 報告中確定的核心衝突,將感知的利益與相應的社會及個人風險進行了對比。
| 類別 | 主要利益(光明面) | 主要風險(陰影面) |
|---|---|---|
| 專業領域 | 效率、規模化與速度 | 技能萎縮與就業安全焦慮 |
| 認知領域 | 減輕心理負荷與組織能力 | 過度依賴與批判性思考下降 |
| 個人領域 | 情感支持與陪伴 | 依賴性與人類連結的喪失 |
| 系統領域 | 全球知識獲取 | 幻覺與缺乏可靠性 |
研究顯示,「光明與陰影」的動態在全球範圍內的感受並不統一。地理位置、經濟地位和文化背景在 AI 如何被看待方面發揮了巨大作用。
在開發中國家,對 AI 的情緒主要持樂觀態度。來自南美洲、非洲和東南亞的受訪者更傾向於將人工智慧視為「經濟等化器」——一種可以幫助他們跨越傳統基礎設施障礙並獲得全球機會的工具。對於這些使用者來說,成長和獲取的利益目前超過了潛在職位取代的擔憂。
相比之下,富裕國家——尤其是整個歐盟和北美部分地區——表現出更具懷疑態度的輪廓。在這些地區,論述沉重地集中在監管審查、數據使用的倫理以及 AI 對勞動力市場的長期影響上。而在東亞市場,「認知退化」的恐懼明顯更高,使用者對 AI 使思維過程同質化並減少人類主導的創意追求表達了深切的憂慮。
Anthropic 的研究為整個 AI 行業提供了至關重要的回饋。這是一個現實檢查,表明「AI 作為一項功能」的時代正在迅速過渡到「AI 作為一種基礎設施」的時代。
對於像 Anthropic 這樣的公司來說,研究結果指向了開發策略的必要轉變。使用者不僅在要求更強大的模型,他們還在要求更透明、更可控且尊重人機合作關係的工具。對可靠性的需求不再僅僅是一項技術要求——它是維持使用者信任的先決條件。
隨著我們邁向 2026 年,這項研究證實了圍繞 AI 的對話必須擴大。它不能僅限於董事會和研究實驗室。正如 80,000 多個聲音所表明的那樣,AI 的未來將不單由參數數量或訓練數據量決定,而是取決於這些系統如何與使用它們的人類那真實、複雜且往往矛盾的需求保持一致。