
在這項凸顯人工智慧(Artificial Intelligence,AI)公司與政府利益之間日益複雜關係的發展中,Anthropic 的 Claude 聊天機器人已飆升至美國 App Store 免費排行榜的第二名。這次急速上升發生在 2026 年 2 月 28 日的週末,矛盾的是,這正是在與五角大廈(Pentagon)發生嚴重衝突以及隨後白宮指示禁止聯邦機構使用該技術之後發生的。
這次激增使 Claude 緊隨 OpenAI 的 ChatGPT 之後,並領先於 Google 的 Gemini,標誌著消費者情緒的轉變,企業倫理和對國家壓力的抵制可能正發揮著強大且非常規的營銷引擎作用。對於行業觀察家而言,這一時刻代表了「史翠珊效應」(Streisand Effect)的一個關鍵案例研究,即試圖壓制或邊緣化某個平台的行為最終反而放大了其知名度和吸引力。
這次市場動盪的催化劑是 Anthropic 與國防部(Department of Defense,DoD)之間一場高風險的談判破裂。據接近此事的知情人士證實,五角大廈曾尋求將 Anthropic 的前沿模型整合到國防工作流程中,但要求放棄某些「安全護欄」(safety guardrails)。具體而言,據報導國防官員要求有能力將 AI 用於「所有合法目的」,Anthropic 領導層擔心這一廣泛的分類會為大規模國內監控和為全自動致命武器系統提供動力打開大門。
Anthropic 執行長 Dario Amodei 公開拒絕了這些條款,表示公司無法「問心無愧」地答應那些會凌駕於其 AI 憲章和安全協議之上的要求。華盛頓方面的反應迅速且具懲罰性。到了週五,政府已將 Anthropic 定為「供應鏈風險」——這一分類通常保留給外國對手或受威脅的供應商——並下令停止所有聯邦與該新創公司的合約。
雖然這樣的定性傳統上會重創國防承包商,但 Anthropic 的主要價值在於其消費者和企業軟體。這次爭議的公開性質,加上川普總統批評該公司領導層「自命不凡」,似乎激發了關注隱私和人工智慧不受限制軍事化的使用者群體。
隨後的下載量激增表明,很大一部分公眾不將 Anthropic 的拒絕視為不服從,而是將其視為可信賴的特徵。在數據隱私疑慮至上的時代,一家 AI 公司拒絕利潤豐厚的政府合約以保護倫理底線的敘事引起了深切共鳴。
來自 Sensor Tower 的分析顯示,Claude 在 2 月初還徘徊在前 20 名應用程式之外。然而,隨著禁令的消息以及五角大廈與 Anthropic 高管之間電視轉播的交鋒,下載量在 48 小時內加速增長了 300% 以上。
這一現象對 AI 行業的經濟模型提出了關鍵問題。歷史上,「對齊」(alignment)在討論模型行為時一直被視為技術術語。這一事件將對齊重塑為一種品牌資產——與用戶價值觀對齊,反對感知的國家過度擴權。用戶正在用他們的儲存空間投票,實際上是在選擇「異議人士」AI,而非那些在政府合作中採取更順從方式的競爭對手。
與 Anthropic 主要對手 OpenAI 的對比再明顯不過了。在白宮發布針對 Anthropic 的指令數小時後,有報導稱 OpenAI 已與 五角大廈 達成了一項新協議,為機密軍事網絡提供 AI 能力。
這種分歧在市場上造成了明顯的分化:
雖然 OpenAI 憑藉其先發優勢和龐大的現有用戶群保住了 App Store 的首位,但 Claude 突然拉近的距離表明,「倫理 AI」的市場細分領域遠比此前估計的要大得多。
目前前三大 AI 應用程式的排名揭示了正在運作的競爭動態。下表總結了截至 2026 年 3 月 1 日美國 App Store 領先 AI 聊天機器人的狀況。
App Store AI 排名(美國免費排行榜)
| 排名 | 應用程式名稱 | 關鍵背景與近期驅動因素 |
|---|---|---|
| 1 | ChatGPT (OpenAI) | 保持市場領先地位;最近獲得了擴大的國防部合約,用於機密網絡部署。 |
| 2 | Claude (Anthropic) | 從前 20 名飆升;受「供應鏈風險」認定及公開拒絕監控條款的推動。 |
| 3 | Google Gemini | 保持穩定增長;利用與 Android 和 Workspace 生態系統的深度整合。 |
「Claude 激增」使監管機構和決策者的敘事變得複雜。政府試圖利用市場排斥手段(供應鏈風險認定)來強迫合規的做法在消費者領域產生了反效果。這限制了政府的槓桿作用;如果禁止一家公司反而使其更受歡迎,國家就失去了其主要的非監管手段。
此外,這次僵局突顯了當前 AI 安全「自願承諾」時代的脆弱性。Anthropic 的拒絕證明,自願護欄只有在不與強大客戶的需求發生衝突時才具有意義。透過堅守底線,Anthropic 樹立了一個先例,即安全承諾是具有約束力的約束,而不僅僅是行銷文案。
法律專家預測,Anthropic 可能會在法院挑戰「供應鏈風險」的認定,辯稱拒絕建造 自動化武器 並不構成安全風險。這種法律戰的結果將定義技術公司是否有權基於倫理理由拒絕政府工作,而不必面臨報復性的黑名單。
隨著這混亂一週的塵埃落定,來自市場的信息是明確的:倫理是一種競爭差異化因素。Anthropic 優先考慮其安全憲法而非五角大廈收入的賭注,目前已在用戶關注度和信任的貨幣中獲得了回報。這種勢頭能否在即時新聞週期之後持續還有待觀察,但 Claude 升至第二名的位置是一個強大的信號,表明公眾正密切注視著 AI 公司如何應對未來十年的道德複雜性。