
隨著圍繞人工智能(Artificial Intelligence,AI)快速發展的緊張局勢日益加劇,約 200 名抗議者於週六在舊金山街頭遊行。這些抗議者在「停止 AI 競賽」(Stop the AI Race)的旗幟下組織起來,在該行業三家最知名的開發商總部外集會:Anthropic、OpenAI 和 xAI。
遊行從 Anthropic 的辦公室開始,隨後前往 OpenAI,最後到達 xAI。這次遊行凸顯了科技行業對「前沿 AI」(frontier AI)能力的推動,與由活動人士、研究人員和學者組成的直言不諱的聯盟之間日益深化的鴻溝,後者擔心目前的發展速度會對人類構成生存風險。
示威者的主要訴求清晰且堅定:他們呼籲對日益強大的 AI 模型開發進行有條件且協調的暫停。「停止 AI 競賽」的創始人兼紀錄片製片人 Michael Trazzi 領導了此次活動,他強調,這次抗議不僅是為了停止技術發展,更是為了將焦點轉向安全性。
活動人士認為,全球 AI 領域已演變成一場「自殺式競賽」,公司和國家優先考慮速度而非安全,為了爭奪最強系統的稱號而不惜偷工減料。他們主張,這種環境使得不可控 AI 系統的開發變得不可避免。
| 組織 | 主要關注點 | 在運動中的角色 |
|---|---|---|
| Stop the AI Race | 組織示威活動 | 戰略與協調 |
| PauseAI | 政策與倡議 | 公眾意識與遊說 |
| QuitGPT | 安全與監管 | 行業問責 |
| Machine Intelligence Research Institute | 技術安全研究 | 風險理論框架 |
| Evitable | 緩解生存風險 | 公眾參與和意識 |
在示威期間,組織者提出了一個關於如何實現全行業暫停的具體願景。Trazzi 建議關鍵在於建立國際條約。他假設,如果美國和中國——這兩個開發前沿 AI 的主要競爭對手——同意暫停構建更危險、更強大的模型,全球的激勵結構將會發生轉變。
據抗議者稱,這樣的框架將允許實驗室將其龐大的資源轉向有益的應用,例如醫療 AI,而不是競爭發布下一個可能更具危險性的生成式 AI(Generative AI)迭代版本。
當被問及執行此類暫停的可行性時,Trazzi 指出算力(Computing power)是最可行的控制指標。透過對用於訓練大型系統的運算能力實施國際限制,監管機構可以有效地對新型高風險模型的開發設定硬性上限。
本週末在舊金山的抗議活動並非孤立事件,而是為打破 AI 發展現狀而進行的一系列努力中的最新升級。呼籲「暫停」已成為 AI 安全(AI safety)討論中反覆出現的主題,最早可追溯到 2023 年 3 月。當時,生命未來研究所(Future of Life Institute)發布了一封公開信,要求暫停對領先 AI 工具的增強,這封信獲得了超過 33,000 名知名人士的簽署,其中包括 Apple 聯合創始人 Steve Wozniak 和 xAI 創始人 Elon Musk。
激進主義也採取了更具個人化的形式。Trazzi 此前曾在 Google DeepMind 倫敦辦公室外進行了為期數週的高調絕食抗議。同樣,倡導者 Guido Reichstadter 在 Anthropic 舊金山總部外進行了平行的絕食抗議。這些行動雖然方法極端,但反映了「毀滅論者」(doomer)哲學的激烈程度——即認為如果不加干預,目前的發展軌跡可能會導致災難性的結果。
抗議者目前面臨著一個與其目標截然相反的政治環境。在活動人士呼籲放慢速度的同時,當前美國的政治格局特點是強烈渴望在該領域保持主導地位。
特朗普政府最近發布的 AI 框架強調了「贏得 AI 競賽」的國家承諾。這給那些主張安全優先暫停的人造成了巨大的障礙,因為政府官員和行業遊說者經常辯稱,減緩美國的研究速度會將決定性的優勢讓給外國競爭對手,從而可能危及國家安全。
| 觀點 | 對 AI 發展的立場 | 主要擔憂 |
|---|---|---|
| AI 安全活動人士 | 立即、協調的暫停 | 生存風險和缺乏控制 |
| 政府/行業 | 持續、加速的研究 | 國家安全和全球競爭力 |
儘管在週末活動後,OpenAI、Anthropic 或 xAI 均未發表公開聲明,但遊行組織者並不打算退縮。Trazzi 表示,未來可能會在這些主要實驗室運營的其他地點舉行示威活動。
戰略轉變很明顯:「我們希望出現在員工所在的地方,」Trazzi 表示。抗議者正尋求彌合外部壓力和內部變革之間的差距,希望能鼓勵這些實驗室內的員工挑戰領導層並成為舉報人。隨著該行業繼續以驚人的速度發展,那些構建未來的人與那些恐懼未來到來的人之間的鴻溝只會越來越大。