
В ходе тихого, но значительного отступления Google официально прекратила поддержку функции «Что предлагают люди» (What People Suggest) — поисковой функции на базе искусственного интеллекта (Artificial Intelligence), которая ранее выводила краудсорсинговые медицинские советы с онлайн-форумов. Удаление этой функции, которая была разработана для предоставления пользователям идей от других людей, делящихся аналогичным жизненным опытом, знаменует собой еще одну главу в продолжающейся и зачастую спорной интеграции ИИ в сферу информации о общественном здравоохранении.
Хотя технологический гигант утверждает, что это решение было частью «более масштабного упрощения» поискового интерфейса, этот шаг происходит на фоне повышенного внимания к безопасности и точности контента, генерируемого ИИ, в медицинской сфере. Как для пользователей, так и для отраслевых наблюдателей исчезновение этого инструмента подчеркивает сохраняющееся напряжение между стремлением демократизировать информацию о здоровье и клиническими рисками усиления непроверенных, неэкспертных комментариев.
Запущенная примерно в марте 2025 года, функция «Что предлагают люди» позиционировалась как мост между профессиональными медицинскими базами данных и дискуссиями между равными (peer-to-peer). Во время ее дебюта руководители Google утверждали, что, хотя пользователи полагаются на поисковые системы для получения экспертных советов, существует равная ценность в понимании «жизненного опыта» других людей — например, того, как люди с хроническими заболеваниями, такими как артрит, справляются с физическими упражнениями или ежедневными корректировками.
Механизм был прост: система использовала ИИ для сканирования и синтеза веток с дискуссионных платформ, таких как Reddit, Quora и X (ранее Twitter). Затем она агрегировала эти разрозненные, часто анекдотичные точки зрения в обобщенные «темы», отображаемые непосредственно на странице результатов поиска.
Однако эффективность этого подхода сразу же была поставлена под сомнение медицинскими работниками и защитниками безопасности. Основное опасение заключалось в возможности ИИ возвести анекдотичные — а иногда и опасные — медицинские советы на тот же уровень видимости, что и рекомендации, основанные на доказательствах.
Основной риск функции «Что предлагают люди» заключался в ее фундаментальной структуре. Относясь к анекдотам с форумов с тем же алгоритмическим весом, что и к профессиональным выводам, функция рисковала размыть грань между личным опытом и клиническими рекомендациями.
В начале 2026 года расследования показали, что более широкие ИИ-обзоры (AI Overviews) Google уже столкнулись со значительной негативной реакцией из-за предоставления вводящей в заблуждение информации, такой как неверные советы по диете для пациентов с раком поджелудочной железы или неверно интерпретированные результаты тестов функции печени. Включение непроверенных мнений сообщества в эти поисковые сводки усилило опасения по поводу безопасности пациентов.
| Тип функции | Надежность источника | Уровень риска |
|---|---|---|
| Медицинский поиск (стандартный) | Высокая (рецензируемый/клинический) | Низкий |
| ИИ-обзоры (общие) | Переменная (по всему интернету) | Умеренный |
| «Что предлагают люди» | Низкая (анекдотичная/непроверенная) | Высокий |
Риски, связанные с этим подходом, не являются чисто теоретическими. Когда системы ИИ поглощают и представляют советы от обывателей, им часто не хватает клинического контекста, необходимого для фильтрации вредной дезинформации. Для пользователя, ищущего рекомендации по деликатному медицинскому вопросу, разница между полезным советом и опасным предложением может быть вопросом важности для общественного здравоохранения.
Заявленная Google причина удаления функции — «более широкое упрощение страницы поиска» — была встречена скептически некоторыми отраслевыми аналитиками. Когда на компанию нажали вопросом о том, были ли опасения по поводу безопасности сопутствующим фактором, представитель компании заявил, что решение не связано с качеством или безопасностью инструмента, подтвердив, что они продолжают связывать пользователей с надежными взглядами на здоровье.
Однако время удаления предполагает более глубокую перекалибровку стратегии интеграции ИИ. Поскольку крупные технологические компании сталкиваются с растущим давлением в отношении ответственности за свои модели ИИ, философия «двигайся быстро и ломай вещи», которая характеризовала первые дни генеративного ИИ (Generative AI), заменяется более осторожным подходом, ориентированным на защитные барьеры.
Ключевые соображения для будущих развертываний ИИ-поиска теперь включают:
Провал или прекращение работы функции «Что предлагают люди» не обязательно является провалом технологии ИИ, а скорее корректировкой применения ИИ к конфиденциальной информации. Google по-прежнему привержена инициативе «The Check Up», в рамках которой руководители компании продолжают обсуждать роль исследований в области ИИ и технологических инноваций в решении глобальных проблем здравоохранения.
Для читателей Creati.ai это развитие служит резким напоминанием о том, что ценность ИИ в поиске сильно зависит от качества данных, которые он курирует. По мере того как модели ИИ становятся более искусными в обобщении веб-контента, задача смещается с технической способности синтезировать текст на редакционную ответственность за определение того, что должно быть синтезировано.
Поворот Google предполагает, что компания совершенствует свой подход к ИИ-безопасности. Хотя функция «Что предлагают люди», возможно, ушла в прошлое, основополагающий вопрос — как предоставить пользователям личные взгляды без ущерба для клинической точности — остается одной из самых критических проблем для будущего поисковых технологий. Поскольку гонка вооружений в области ИИ продолжается, отрасль осознает, что когда речь идет о здоровье человека, точность и проверяемый опыт всегда должны иметь приоритет над привлекательностью вовлеченности.