
조용하지만 의미 있는 후퇴를 통해, Google은 이전에 온라인 포럼의 크라우드소싱된 의료 조언을 표면화했던 AI 기반 검색 기능인 "What People Suggest"를 공식적으로 중단했습니다. 유사한 실제 경험(lived experiences)을 공유하는 다른 사람들로부터 통찰력을 사용자에게 제공하기 위해 설계되었던 이 기능의 제거는, 공중 보건 정보에 인공지능(Artificial Intelligence)을 통합하려는 지속적이고 종종 논쟁적인 과정의 또 다른 장을 장식합니다.
이 기술 거대 기업은 이번 결정이 검색 인터페이스의 "광범위한 단순화"의 일부라고 주장하지만, 이번 조치는 의료 영역에서 AI 생성 콘텐츠의 안전성과 정확성에 대한 조사가 강화된 가운데 이루어졌습니다. 사용자 및 업계 관찰자 모두에게 이 도구의 소멸은 건강 정보를 민주화하려는 욕구와 검증되지 않은 비전문가의 의견을 증폭시키는 임상적 위험 사이의 지속적인 긴장을 부각시킵니다.
2025년 3월경 출시된 "What People Suggest"는 전문 의료 데이터베이스와 피어 투 피어(peer-to-peer) 토론 사이의 가교 역할을 하도록 배치되었습니다. 데뷔 당시 Google 경영진은 사용자가 전문가의 조언을 위해 검색 엔진에 의존하는 한편, 관절염과 같은 만성 질환을 앓고 있는 개인이 운동 루틴이나 일상적인 조정을 어떻게 관리하는지와 같은 타인의 "실제 경험"을 이해하는 것에도 동등한 가치가 있다고 주장했습니다.
메커니즘은 간단했습니다. 시스템은 AI를 활용하여 Reddit, Quora 및 X(구 Twitter)와 같은 토론 플랫폼의 스레드를 크롤링하고 종합했습니다. 그런 다음 이러한 이질적이고 종종 일화적인 관점들을 검색 결과 페이지에 직접 표시되는 요약된 "테마"로 집계했습니다.
하지만 이 방식의 효능은 의료 전문가와 안전 옹호자들에 의해 즉각 의심을 받았습니다. 주요 우려 사항은 AI가 일화적이고 때로는 위험한 의료 조언을 증거 기반 지침과 동일한 수준의 가시성으로 격상시킬 가능성이었습니다.
"What People Suggest"의 핵심 위험은 그 근본적인 구조에 있었습니다. 포럼 기반의 일화를 전문적인 통찰력과 동일한 알고리즘 가중치로 처리함으로써, 이 기능은 개인적인 경험과 임상적 권고 사이의 경계를 모호하게 만들 위험이 있었습니다.
2026년 초, 조사를 통해 Google의 광범위한 AI 개요(AI Overviews)가 췌장암 환자를 위한 잘못된 식단 조언이나 간 기능 검사 결과의 오해석과 같은 오해의 소지가 있는 정보를 제공하여 이미 상당한 반발에 직면했다는 사실이 밝혀졌습니다. 이러한 검색 요약에 검증되지 않은 커뮤니티 정서를 포함시킨 것은 환자 안전에 대한 우려를 심화시켰습니다.
| 기능 유형 | 소스 신뢰성 | 위험 수준 |
|---|---|---|
| 의료 검색 (표준) | 높음 (피어 리뷰/임상의) | 낮음 |
| AI 개요 (일반) | 가변적 (웹 전반) | 중간 |
| "What People Suggest" | 낮음 (일화성/미검증) | 높음 |
이 접근 방식과 관련된 위험은 단지 이론적인 것이 아닙니다. AI 시스템이 일반인의 조언을 섭취하고 제시할 때, 해로운 오정보를 걸러내는 데 필요한 임상적 문맥이 부족한 경우가 많습니다. 민감한 의료 문제에 대한 지침을 찾는 사용자에게 유용한 팁과 위험한 제안 사이의 차이는 공중 보건상의 중요한 문제가 될 수 있습니다.
기능을 제거한 Google의 공식적인 이유인 "검색 페이지의 광범위한 단순화"는 일부 업계 분석가들의 회의론에 직면했습니다. 안전 우려가 기여 요인이었는지에 대한 압박을 받았을 때, 회사 대변인은 이번 결정이 도구의 품질이나 안전과는 무관하다고 주장하며 사용자에게 신뢰할 수 있는 건강 관점을 지속적으로 연결하고 있음을 재확인했습니다.
그러나 제거 시점은 AI 통합 전략의 더 깊은 재조정을 시사합니다. 주요 기술 기업들이 AI 모델의 책임과 관련하여 증가하는 압박에 직면함에 따라, 생성형 AI(Generative AI) 초기를 특징짓던 "빠르게 움직이고 파괴하라(move fast and break things)"는 철학은 더 신중하고 가드레일에 집중하는 접근 방식으로 대체되고 있습니다.
향후 AI search 배포를 위한 주요 고려 사항은 다음과 같습니다:
"What People Suggest"의 실패 또는 중단이 반드시 AI 기술의 실패는 아니며, 오히려 민감한 정보에 AI를 적용하는 과정에서의 교정입니다. Google은 회사 리더들이 글로벌 건강 과제를 해결하는 데 있어 AI 연구 및 기술 혁신의 역할에 대해 계속 논의하는 "The Check Up" 이니셔티브에 여전히 전념하고 있습니다.
Creati.ai 독자들에게 이 발전은 검색에서 AI의 가치가 큐레이션하는 데이터의 품질에 크게 좌우된다는 점을 일깨워주는 신랄한 사례입니다. AI 모델이 웹 콘텐츠를 요약하는 데 더 능숙해짐에 따라, 과제는 텍스트를 합성하는 기술적 능력에서 무엇이 합성되어야 하는지를 결정하는 편집상의 책임으로 이동합니다.
Google의 전환은 회사가 AI safety에 대한 접근 방식을 개선하고 있음을 시사합니다. "What People Suggest" 기능은 사라졌을지 모르지만, 임상적 정확성을 희생하지 않으면서 어떻게 사용자에게 개인적인 관점을 제공할 것인가라는 근본적인 질문은 검색 기술의 미래를 위한 가장 중요한 과제 중 하나로 남아 있습니다. AI 군비 경쟁이 계속됨에 따라 업계는 인간의 건강에 있어서는 정확성과 검증 가능한 전문성이 항상 참여의 유혹보다 우선해야 한다는 점을 배우고 있습니다.