
在一次低調但重大的撤退中,Google 已正式停止「人們的建議」(What People Suggest),這是一項由 AI 驅動的搜尋功能,此前該功能曾彙整來自線上論壇的群眾外包醫療建議。移除該功能(旨在為使用者提供分享類似生活體驗之見解)標誌著人工智慧(Artificial Intelligence)整合進公共健康資訊這一持續且往往充滿爭議的歷程中之新篇章。
雖然這家科技巨頭堅稱該決定是其搜尋介面「廣泛簡化」的一環,但此舉正值外界對醫療領域 AI 生成內容的安全性和準確性加強審查之際。對於使用者和產業觀察家而言,該工具的消失突顯了民主化健康資訊的願望與放大未經核實、非專家評論的臨床風險之間持久的緊張關係。
「人們的建議」於 2025 年 3 月左右推出,被定位為專業醫療資料庫與同儕討論之間的橋樑。在首次亮相時,Google 高層辯稱,雖然使用者依賴搜尋引擎獲取專家建議,但了解他人的「生活體驗」也具有同等價值——例如患有關節炎等慢性病的人如何管理運動例程或日常調整。
其機制非常簡單:系統利用 AI 抓取並綜合來自 Reddit、Quora 和 X(前身為 Twitter)等討論平台的貼文。然後,它將這些分散且往往是軼事性的觀點彙整成直接顯示在搜尋結果頁面上的摘要「主題」。
然而,這種方法的有效性立即受到醫療專業人士和安全倡導者的質疑。主要擔憂在於 AI 可能會將軼事性——有時甚至是危險的——醫療建議提升到與實證指南同等的能見度。
「人們的建議」的核心風險在於其基本結構。透過賦予論壇軼事與專業見解相同的演算法權重,該功能冒著模糊個人經驗與臨床建議之間界限的風險。
2026 年初,調查顯示 Google 更廣泛的 AI 概覽(AI Overviews)已因提供誤導性資訊而面臨重大抵制,例如為胰臟癌患者提供錯誤的飲食建議,或誤解肝功能檢查結果。將未經證實的社群觀點納入這些搜尋摘要,加劇了對患者安全的擔憂。
| 功能類型 | 來源可信度 | 風險等級 |
|---|---|---|
| 醫療搜尋(標準) | 高(同儕審查/臨床醫生) | 低 |
| AI 概覽(一般) | 變動(全網) | 中等 |
| 「人們的建議」 | 低(軼事性/未經證實) | 高 |
與這種方法相關的風險不僅僅是理論上的。當 AI 系統攝取並呈現外行人的建議時,它們通常缺乏過濾有害錯誤資訊所需的臨床背景。對於正在尋求敏感醫療問題指導的使用者來說,有用的提示與危險的建議之間的區別可能事關公共健康的重要性。
Google 移除該功能的官方理由——「搜尋頁面的廣泛簡化」——受到了部分產業分析師的質疑。當被追問安全疑慮是否為促成因素時,公司發言人堅稱該決定與工具的品質或安全性無關,並重申他們將繼續為使用者連結可靠的健康觀點。
然而,移除的時間點暗示了 AI 整合策略更深層次的重新調整。隨著大型科技公司在 AI 模型責任方面面臨日益增加的壓力,曾定義生成式 AI(Generative AI)早期階段的「快速行動、打破常規」(move fast and break things)哲學,正被一種更謹慎、專注於防護欄的方法所取代。
未來 AI 搜尋 部署的關鍵考慮因素現在包括:
「人們的建議」的失敗或停用不一定是 AI 技術的失敗,而是在將 AI 應用於敏感資訊方面的修正。Google 仍致力於「The Check Up」計畫,公司領導層在該計畫中繼續討論 AI 研究和技術創新在應對全球健康挑戰中的作用。
對於 Creati.ai 的讀者來說,這一發展提醒人們:AI 在搜尋中的價值很大程度上取決於其策劃數據的品質。隨著 AI 模型變得更擅長總結網路內容,挑戰已從合成文字的技術能力轉向決定應該合成什麼內容的編輯責任。
Google 的轉向表明該公司正在完善其 AI 安全(AI safety) 方法。雖然「人們的建議」功能可能已不復存在,但潛在的問題——如何在不犧牲臨床準確性的情況下為使用者提供個人觀點——仍然是未來搜尋技術最關鍵的挑戰之一。隨著 AI 軍備競賽的持續,業界正在學習,當涉及人類健康時,準確性和可驗證的專業知識必須始終優先於參與度的誘惑。