
隨著生成式 AI(Generative AI)工具在我們的數位工作流程中無處不在,越來越多的研究開始審視我們對這些系統的依賴所帶來的意外心理後果。BBC Future 最近的一項調查揭示了一個令人擔憂的趨勢:AI 聊天機器人有可能會侵蝕它們本應增強的批判性思維能力。在 Creati.ai,我們認為除了關注 AI 帶來的生產力提升外,理解人類認知與機器智能互動方式的深刻轉變至關重要。
這場辯論的核心是「認知卸載(cognitive offloading)」的概念,即透過使用物理或數位工具來減少執行任務所需的心理努力。從歷史上看,這包括從日曆、計算機到搜尋引擎等各種工具。然而,大型語言模型(LLMs)的興起代表了一種質的轉變。與執行特定運算的計算機不同,AI 聊天機器人能夠代表用戶綜合資訊、構建論點並做出創造性的決策。
當用戶將這些任務委託給 AI 時,他們可能無意中繞過了深度學習所需的「生產性掙扎」。研究表明,當我們的大腦不需要被迫咀嚼資訊、綜合零散事實或獨立構建邏輯序列時,與這些複雜任務相關的神經通路可能會隨著時間的推移而減弱。
下表突顯了傳統認知參與與 AI 輔助任務執行之間的差異結果。
| 核心認知活動 | 傳統方法 | AI 輔助方法 |
|---|---|---|
| 資訊綜合 | 主動回憶與手動交叉引用 | 即時、被動的摘要生成 |
| 邏輯推理 | 透過內部批判構建論點 | 提示 AI 提供結構模板 |
| 問題解決 | 反覆的嘗試與錯誤反思 | 透過直接提示獲得即時解決方案 |
| 知識保留 | 因認知努力而保留率高 | 因輸出迅速而保留率低 |
BBC 的報告強調,其風險不僅僅是「變懶」,而是失去了智識獨立性(intellectual independence)。當 AI 聊天機器人提供了一份完美潤色的草稿或現成的解決方案時,人類用戶就無需再質疑其底層邏輯或核實輸出的事實準確性。
這產生了一個危險的反饋迴圈。隨著用戶習慣於由 AI 生成的答案,他們從事原創研究或批判性分析的意願就會降低。這種現象通常被稱為「自動化偏差(automation bias)」,導致人們在 AI 輸出包含錯誤或「幻覺」時,仍以不斷降低的懷疑態度去信任它。
這種依賴性的影響在教育環境中或許最為顯著。教育工作者目前正在努力權衡 AI 素養培訓的必要性與保留基礎認知技能之間的平衡。正如關於課堂集成 AI 的討論中所指出的,挑戰在於將重點從「產品」(文章或代碼)轉移到「過程」(工作背後的教學法和批判性推理)。
在 Creati.ai,我們對 AI 激發人類獨創性的潛力保持樂觀,前提是這些工具的部署必須與刻意的人類監督相結合。目標不應是拒絕 AI,而是培養一種優先考慮智識嚴謹性的「人在迴圈(human-in-the-loop)」哲學。
為了在 AI 的快速普及面前保持智識獨立性,用戶應納入以下做法:
近期報告中出現的證據證實,AI 聊天機器人對人類認知的影響是一個需要進一步長期研究的細膩議題。科技本質上反映了我們的意圖;如果我們用它來取代思考,我們就有智識萎縮的風險。然而,如果我們利用它來提升提問水準並擴展創造力範圍,我們或許能解鎖人類與 AI 協作的新水平。
隨著我們繼續在這個變革性的時代中前行,AI 技術的開發者和最終用戶都有責任確保這些強大的工具是思想的腳手架,而不是隱藏思想的拐杖。智識獨立性始終是創新的先決條件,保護這一能力或許是現代數位時代最重要的挑戰。