
在矽谷與華盛頓之間緊張局勢劇烈升級之際,一個由頂尖人工智慧研究人員組成的非凡聯盟已聯合起來挑戰美國政府。來自 AI 巨頭 OpenAI 和 Google DeepMind 的 30 多名員工已向聯邦法院提交了一份法庭之友摘要(Amicus brief),表示支持競爭對手 Anthropic 針對國防部(DoD)提起的這場高風險訴訟。這種罕見的跨公司團結凸顯了 AI 治理的一個關鍵時刻,反映了業界對監管過度、國家安全指令以及前沿 AI 系統(Frontier AI systems)倫理部署的深切擔憂。
這場法律對抗源於川普政府在 2026 年 2 月下旬做出的一項具爭議性的決定,即正式將 Anthropic 認定為「國家安全供應鏈風險」。從歷史上看,這種嚴厲的分類一直嚴格保留給外國對手以及與競爭對手國家(如中國科技巨頭華為)有可疑聯繫的國際公司。將這種具有破壞性的標籤貼在一家總部位於舊金山的本土 AI 公司身上——該公司由前 OpenAI 高管創立,並擁有數十億美元的美國資本支持——代表了政府處理技術採購方式的一次劇烈且意想不到的範式轉移(Paradigm shift)。
在與五角大廈的合約談判完全破裂後,針對 Anthropic 的制裁立即生效。根據官方法院文件,Anthropic 堅決拒絕放棄其嚴格的使用政策,特別是禁止將其 Claude AI 模型用於兩個備受爭議的軍事應用:
這一認定嚴重削弱了 Anthropic 在公共部門的運營能力,實際上禁止了政府機構和國防承包商將 Anthropic 的技術整合到其工作流程中。為了應對其視為生存威脅的舉動,Anthropic 在舊金山聯邦法院提交了一份長達 48 頁的綜合起訴書,尋求臨時限制令以停止制裁,並宣布該認定根本上是不合法的。
生成式 AI(Generative AI)激烈的競爭格局通常讓 OpenAI、Google 和 Anthropic 陷入爭奪市場主導地位、企業合約和消費者心智份額的苦戰。然而,五角大廈前所未有的舉動促使整個行業迅速靠攏。在 Anthropic 提起訴訟僅幾小時後,其最大競爭對手的研究人員正式向法院提交了一份 法庭之友摘要 以加強 Anthropic 的動議。
摘要的簽署人包括人工智慧領域極具影響力的人物,他們是以個人身份而非官方公司代表身份行事。他們共同堅信安全護欄(Safety guardrails)是必需品,而非可有可無的奢侈品。
支持法庭之友摘要的關鍵人物:
| 簽署人姓名 | 公司隸屬關係 | 著名職位/角色 |
|---|---|---|
| Jeff Dean | Google DeepMind | 首席科學家兼 Gemini 負責人 |
| Zhengdong Wang | Google DeepMind | AI 研究員 |
| Alexander Matt Turner | Google DeepMind | AI 研究員 |
| Noah Siegel | Google DeepMind | AI 研究員 |
| Gabriel Wu | OpenAI | AI 研究員 |
| Pamela Mishkin | OpenAI | AI 研究員 |
| Roman Novak | OpenAI | AI 研究員 |
(註:上表僅突顯了近 40 名簽署人中的一小部分,他們跨越了公司分歧以捍衛共同的倫理底線。)
員工們的法律文件對政府的高壓手段提出了極具說服力的程序性和倫理學論點。他們斷言,目前的前沿 AI 模型在涉及致命目標決策時,尚未具備足夠的可靠性或透明度。此外,將強大的 AI 與龐大數據集相結合,對公共生活和隱私的結構構成了嚴重威脅。
摘要明確警告法院:「如果獲准繼續進行,這種懲罰美國領先 AI 公司之一的努力,無疑將對美國(United