
静かではあるが重要な撤退として、Googleは「人々の提案(What People Suggest)」を公式に廃止した。これは、以前にオンラインフォーラムからのクラウドソースによる医学的アドバイスを表示していた人工知能(AI)駆動の検索機能である。同様の実体験を共有する他者からの洞察をユーザーに提供するために設計されたこの機能の削除は、公衆衛生情報へのAIの統合という、現在進行中でしばしば議論を呼ぶプロセスの新たな一章を刻むものである。
このテック大手は、この決定は検索インターフェースの「広範な簡素化」の一環であると主張しているが、この動きは医療領域におけるAI生成コンテンツの安全性と正確性に関する監視が強まる中で行われた。ユーザーと業界の観察者の双方にとって、このツールの消失は、健康情報の民主化への願望と、検証されていない非専門家のコメントを増幅させることによる臨床的リスクとの間の絶え間ない緊張を浮き彫りにしている。
2025年3月頃にリリースされた「人々の提案(What People Suggest)」は、専門的な医学データベースとピアツーピアの議論の架け橋として位置づけられていた。デビュー当時、Googleの幹部は、ユーザーは専門的なアドバイスを求めて検索エンジンに頼る一方で、関節炎などの慢性疾患を持つ個人がどのように運動ルーチンや日常生活の調整を管理しているかといった、他者の「実体験(lived experiences)」を理解することにも同様の価値があると主張した。
その仕組みは単純明快であった。システムはAIを利用してReddit、Quora、X(旧Twitter)などのディスカッションプラットフォームのスレッドをクロールし、統合した。その後、これらのバラバラで、しばしば逸話的な視点を要約された「テーマ」に集約し、検索結果ページに直接表示した。
しかし、このアプローチの有効性は、医療専門家や安全性の提唱者によって即座に疑問視された。主な懸念は、AIが逸話的な、そして時には危険な医学的アドバイスを、エビデンスに基づいたガイダンスと同じレベルの視認性にまで引き上げてしまう可能性であった。
「人々の提案」の核心的なリスクは、その根本的な構造にあった。フォーラムベースの逸話を専門的な洞察と同じアルゴリズムの重みで扱うことにより、この機能は個人の経験と臨床的な推奨事項の境界線を曖昧にするリスクを冒していた。
2026年初頭、調査によって Google のより広範なAIオーバービュー(AI Overviews)が、膵臓がん患者への不正確な食事アドバイスや、肝機能検査結果の誤読など、誤解を招く情報を提供したとして、すでに大きな反発に直面していたことが明らかになった。これらの検索サマリーに検証されていないコミュニティの感情を含めることは、患者の安全性に対する懸念を増大させた。
| 機能タイプ | 情報源の信頼性 | リスクレベル |
|---|---|---|
| 医療検索(標準) | 高い(査読済み/臨床医) | 低 |
| AIオーバービュー(全般) | 可変(ウェブ全体) | 中 |
| 「人々の提案」 | 低い(逸話的/未検証) | 高 |
このアプローチに関連するリスクは、単なる理論上のものだけではない。AIシステムが一般人からのアドバイスを取り込んで提示する場合、有害な誤情報をフィルタリングするために必要な臨床的な背景が欠如していることが多い。デリケートな医療問題に関するガイダンスを探しているユーザーにとって、役立つヒントと危険な提案の差は、公衆衛生上の重要な問題となり得る。
Googleが述べたこの機能の削除理由である「検索ページの広範な簡素化」は、一部の業界アナリストから懐疑的な目で見られている。安全性の懸念が寄与要因であったかどうかを問い詰められた際、会社の広報担当者は、この決定はツールの品質や安全性とは無関係であると主張し、信頼できる健康に関する視点とユーザーを引き続き結びつけていくことを再確認した。
しかし、削除のタイミングは、AI統合戦略のより深い再調整を示唆している。主要なテック企業がAIモデルの責任に関して高まる圧力に直面する中、生成AI(Generative AI)の初期を特徴づけていた「素早く動いて壊す(move fast and break things)」という哲学は、より慎重でガードレールを重視したアプローチに取って代わられつつある。
将来のAI検索(AI search)の展開における主要な検討事項には、現在以下が含まれる:
「人々の提案」の失敗または中止は、必ずしもAI技術の失敗ではなく、むしろ機密情報へのAIの適用における修正である。Googleは引き続き「The Check Up」イニシアチブに尽力しており、そこでは会社のリーダーたちが、グローバルな健康課題への対処におけるAI研究と技術革新の役割について議論を続けている。
Creati.aiの読者にとって、この進展は、検索におけるAIの価値が、それがキュレーションするデータの質に大きく依存していることを痛烈に思い出させるものである。AIモデルがウェブコンテンツの要約に習熟するにつれて、課題はテキストを統合する技術的能力から、何を統合すべきかを決定するという編集上の責任へとシフトしている。
Googleの転換は、同社がAI安全性(AI safety)へのアプローチを洗練させていることを示唆している。「人々の提案」機能は失われたかもしれないが、臨床的な正確さを犠牲にすることなく、いかにしてユーザーに個人的な視点を提供するかという根本的な問いは、検索技術の未来における最も重要な課題の一つであり続けている。AIの軍拡競争が続く中、業界は、人間の健康に関しては、正確性と検証可能な専門知識が常にエンゲージメントの魅力よりも優先されなければならないことを学んでいる。