
隨著通往通用人工智慧(Artificial General Intelligence,簡稱 AGI)的競賽日益激烈,圍繞這些系統的安全性和倫理管理之討論也達到了白熱化。影響力深遠的媒體巨頭兼 IAC 主席巴里·迪勒(Barry Diller),最近就此話題提出了一個審慎卻引人深思的觀點。儘管迪勒表達了對 OpenAI 執行長山姆·奧特曼(Sam Altman)的個人信任,但他認為,當「信任」一詞應用於超智慧系統的未來時,本質上是無關緊要的。
他訊息的核心在於意識到,隨著技術向 AGI 邁進,其生存風險已遠超任何個人的品格或意圖。對於 Creati.ai 而言,這種轉變標誌著科技產業的一個關鍵時刻:我們正告別企業監管的時代,進入一個人類監督者無法完全掌控的系統性、自主性複雜時代。
迪勒在最近一次備受矚目的產業討論中所發表的評論,突顯了技術背後的「人」與「技術本身」之間的二分法。雖然許多專家將精力集中於辯論特定創辦人的倫理,或討論 OpenAI 等組織的文化,但迪勒認為這樣的關注本質上是有限的。
「信任山姆·奧特曼是一回事,但信任他正協助構建的智慧之演進則是完全不同的挑戰,」這番言論暗示了潛在的觀點。在 Creati.ai 的分析中,這代表了我們看待 AI 的方式正走向成熟。產業開始承認,AGI 就其本質而言,最終可能會超越其創造者最初設定的參數,這使得開發者的道德框架相較於機器的安全架構而言變得次要。
| 關注領域 | 傳統觀點 | 新興現實 |
|---|---|---|
| 監督模式 | 內部倫理委員會 | 強制性全球合規 |
| 風險管理 | 個人信譽 | 演算法防護欄 |
| 開發步調 | 快速市場擴張 | 受控且安全優先的部署 |
如果「信任」不是這個由 AGI 定義的世界中保障人類安全的機制,那麼什麼才是呢?迪勒和其他領導者現在強調,建立強大且外部化的防護欄絕對必要。從一個以「軟性聲譽」定義的時代轉向一個以「硬性法規」定義的時代,變革正在進行中。
令人擔憂的是,AGI 的發展速度往往超過政府政策的制定速度。隨著這些系統越來越接近能夠自行修改程式碼並以不可預見的效率優化目標的狀態,對頂尖人才或「善意」的依賴正成為一場危險的賭博。
對於 OpenAI 這類實體而言,挑戰是雙重的:他們必須在不斷突破技術可能性的界限的同時,成為自身約束機制的架構師。迪勒的立場並不必然意味著對現任領導層的譴責;相反,它強調了那些試圖引導 AGI 成為現實的企業肩上所承受的巨大結構性重擔。
在 Creati.ai,我們觀察到,在不久的將來,最成功的組織將是那些能夠有效傳達其承諾,不僅僅是「做善事」,更是「構建安全」的組織。兩者之間的區別微妙但至關重要。「善行」暗示了判斷——這是一種人類價值觀;而「構建安全」則暗示了工程——這是一種客觀且可衡量的標準。
##邁向新治理典範之路
展望未來,敘事重點正從集中式控制模型轉向分佈式、系統性的監督模型。產業目前正在評估轉向標準化的安全協議,以便隨著基礎技術的演進進行調整。
下方的時間軸顯示了產業可能會如何回應迪勒等人物所強調的挑戰:
巴里·迪勒最近的干預是一個必要的現實檢核。透過將 AI 的表現與其領導者的個人聲譽解耦,他讓產業能夠就安全性進行更誠實的對話。信任是一種人際關係可以負擔的奢侈品;而具有變革潛力的 AGI,則需要更持久的保障。
隨著技術社群持續縮小大型語言模型(LLM)與真正 AGI 之間的差距,焦點必須堅定地放在控制架構上。「信任建設者」的時代正在消逝;「信任系統」的時代才剛剛開始。在 Creati.ai,我們相信這種轉向客觀、強化安全性措施的做法不僅僅是審慎的——對於一個技術服務於人類,且無需依賴對不可見之物盲目信任的未來而言,這是必不可少的。