
В поразительном развитии событий, ставящем под сомнение надёжность искусственного интеллекта в здравоохранении, новое исследование выявило существенный недостаток в AI Overviews от Google. Функция генеративного искусственного интеллекта (Generative AI), которая суммирует результаты поиска в верхней части страницы, оказалась чаще ссылающейся на YouTube, чем на какие-либо устоявшиеся медицинские сайты при ответах на вопросы, связанные со здоровьем. Такая опора на видеоконтент, создаваемый пользователями, вкупе с задокументированными случаями «полностью неверных» медицинских советов побудила экспертов предупредить о растущем риске для общественного здоровья.
Этот спор подчёркивает критическое напряжение в индустрии ИИ: борьбу между доступностью генеративного поиска и строгой точностью, необходимой для тем «Ваши деньги или ваша жизнь» (Your Money or Your Life, YMYL). Для профессионалов в областях ИИ и SEO результаты представляют собой наглядный пример ограничений Retrieval-Augmented Generation (RAG) при применении к чувствительным областям без надлежащих предохранителей.
Ядро спора вытекает из всестороннего анализа, проведённого платформой по оптимизации поисковых систем SE Ranking. В исследовании проанализировали более 50 000 поисковых запросов, связанных со здоровьем, в Германии, чтобы определить источники, подпитывающие AI Overviews от Google. Результаты оказались неожиданными для многих в медицинском сообществе: YouTube стал единственным доменом, на который ссылались чаще всего.
Согласно данным, на YouTube приходилось 4.43% всех цитирований в проанализированных AI Overviews. Хотя этот процент в отрыве может показаться небольшим, он превзошёл каждую другую отдельную ссылку, включая крупные сети больниц, государственные порталы здравоохранения и академические учреждения. Для сравнения, вторым по цитируемости источником оказался немецкий вещатель, за которым следуют авторитетные MSD Manuals.
Исследователи утверждали, что такое распределение проблематично, поскольку YouTube по сути является универсальной видеоплатформой. В отличие от рецензируемых медицинских журналов или государственных сайтов здравоохранения, экосистема контента YouTube открыта для всех — от сертифицированных хирургов до «инфлюенсеров здоровья» и непроверенных создателей. Хотя на платформе есть ценный медицинский контент, алгоритмическое предпочтение видео с высоким вовлечением, по-видимому, проникает в AI-резюме, которые предназначены для предоставления фактических медицинских ответов.
Table 1: Top Cited Sources in Google AI Overviews for Health Queries
| Source Domain | Percentage of Citations | Source Category |
|---|---|---|
| YouTube.com | 4.43% | User-Generated Video Platform |
| NDR.de | 3.04% | Public Broadcaster (News/Media) |
| MSDManuals.com | 2.08% | Professional Medical Reference |
| Apotheken-umschau.de | 1.85% | Health Magazine/Portal |
| Netdoktor.de | 1.56% | Health Information Portal |
Неравномерность становится ещё более тревожной при агрегации. В исследовании отмечается, что академические журналы и государственные учреждения здравоохранения — пожалуй, золотой стандарт медицинской точности — в сумме составляли лишь около 1% всех цитирований. Это указывает на то, что критерии отбора ИИ могут быть сильно смещены в пользу популярности контента, доступности и мультимедийного вовлечения, а не строгого медицинского авторитета.
Опасность, по мнению экспертов, заключается не только в источнике информации, но и в подаче. AI Overviews представляют информацию с тем, что исследователи называют «уверенным авторитетом». Резюме часто написаны в категоричном, объективном тоне, имитирующем голос врача или медицинской энциклопедии. Такая подача может усыплять бдительность пользователей и отговаривать их проверять информацию, переходя к исходным источникам.
Недавние расследования выявили тревожные примеры такой «уверенной» дезинформации. В одном особенно опасном случае, отмеченном экспертами, AI Overview от Google посоветовал пациентам с раком поджелудочной железы избегать продуктов с высоким содержанием жиров. Медики оперативно указали, что этот совет часто противоположен тому, что рекомендуется таким пациентам, которым зачастую трудно поддерживать вес и которые нуждаются в калорийной диете. Следование такому совету потенциально может ускорить физическое истощение.
Другой случай касался вопросов о тестах на функцию печени. ИИ предоставил «ложную» информацию о нормальных референтных диапазонах для печёночных анализов крови. Критически важно, что ИИ не учёл контекст, такой как возраст пациента, пол или этническая принадлежность — факторы, которые существенно влияют на то, что считается «нормальным». Представляя один универсальный набор чисел как окончательный ответ, ИИ может заставить здоровых людей поверить, что они больны, или, наоборот, привести тех, у кого серьёзные заболевания печени, к игнорированию симптомов.
Table 2: documented Instances of AI Medical Misinformation
| Medical Topic | AI Overview Advice | Expert Medical Consensus | Potential Risk Factor |
|---|---|---|---|
| Pancreatic Cancer Diet | Advised patients to avoid high-fat foods. | Patients often need high-fat/calorie diets to prevent weight loss. | Malnutrition, accelerated physical decline. |
| Liver Function Tests | Provided generic "normal" ranges without context. | Normal ranges vary by age, sex, and ethnicity. | False positives (anxiety) or false negatives (missed diagnosis). |
| Kidney Stones | Suggested drinking urine (historical hallucination). | Hydration with water is the standard treatment. | Infection, toxicity, worsening of condition. |
В ответ на эти опасения Google защитил целостность своих AI Overviews. Представитель компании заявил, что функция разработана так, чтобы выявлять высококачественный контент из авторитетных источников, независимо от формата. Google подчеркнул, что «утверждение о том, что AI Overviews предоставляют ненадёжную информацию, опровергается собственными данными отчёта».
Google сослался на конкретную подсекцию данных SE Ranking, отметив, что среди 25 наиболее цитируемых видео на YouTube 96% были из медицинских каналов, таких как больницы, клиники и организации здравоохранения. Компания утверждает, что само по себе наличие источника на YouTube не означает, что контент ненадёжен. Многие ведущие медицинские учреждения, такие как Mayo Clinic и Cleveland Clinic, ведут активные каналы на YouTube, чтобы охватить более широкую аудиторию.
Однако исследователи, стоящие за исследованием, призвали к осторожности в отношении этой защиты. Хотя топ-25 видео могут быть верифицированы, они представляют «крошечный срез» — менее 1% от тысяч ссылок на YouTube, цитируемых ИИ. «Длинный хвост» цитирований остаётся в значительной степени непроверенным. Если ИИ извлекает видео от инфлюенсера здоровья, продвигающего псевдонаучное средство, потому что у него миллионы просмотров и высокое вовлечение, потенциал вреда остаётся значительным. Исследователи отметили, что видимость и популярность, по-видимому, являются центральными факторами для алгоритма при формировании медицинских знаний, потенциально превосходя медицинскую надёжность в реже задаваемых запросах.
Для разработчиков ИИ и специалистов по SEO эта ситуация подчёркивает колоссальную сложность решения задачи YMYL с помощью генеративных моделей. В течение многих лет традиционные алгоритмы Google применяли более строгие сигналы ранжирования к темам о здоровье и финансах, отдавая приоритет E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness).
Переход к генеративному ИИ, похоже, обошёл некоторые из этих установленных уровней безопасности. Большие языковые модели (LLM) — это вероятностные механизмы; они предсказывают следующее наиболее вероятное слово на основе обучающих данных и извлечённого контекста. Они не «знают» медицину так, как это делает проверенная база данных. Когда LLM извлекает транскрипт из популярного видео на YouTube для составления ответа, ему может быть трудно отличить риторическую уверенность харизматичного инфлюенсера от клинической точности медицинской статьи.
Кроме того, «чёрный ящик» таких цитирований осложняет привлечение к ответственности. В отличие от стандартного списка результатов поиска, где пользователь может ясно увидеть домен (например, .gov против .com), AI Overview смешивает информацию в единый связный нарратив. Ссылка на источник часто представлена в виде маленького фавикона или сноски, которую пользователь, ищущий быстрый ответ, легко может не заметить.
Выводы исследования SE Ranking, сосредоточенного на немецкой системе здравоохранения, имеют более широкие последствия для глобального регулирования ИИ. Германия имеет строго регулируемую систему здравоохранения, тем не менее ИИ всё равно отдал предпочтение неавторитетным источникам. Это говорит о том, что проблема носит технический и системный характер модели ИИ, а не является отражением локальной веб-экосистемы.
Этот спор возникает в то время, когда регуляторы в Европейском Союзе и Соединённых Штатах пристально изучают роль ИИ в критической инфраструктуре и общественной безопасности. Если поисковые движки на основе ИИ будут функционировать как «незарегистрированные медицинские власти», им могут потребовать соблюдения новых требований соответствия, аналогичных тем, которые предъявляются к провайдерам телемедицины или медицинским издателям.
Для индустрии ИИ это является сигналом к пробуждению в вопросе «грунтинга» (Grounding) — процесса привязки ответов ИИ к фактическим источникам. Текущая зависимость от общих индексированных веб-ресурсов, где популярность часто коррелирует с видимостью, возможно, требует коренной реформы для чувствительных вертикалей. Мы можем увидеть переход к RAG-системам в «огороженных садах» для медицинских запросов, где ИИ ограничен в извлечении информации только из белого списка проверенных медицинских доменов (например, PubMed, WHO, CDC), при явном исключении платформ с контентом, создаваемым пользователями, таких как YouTube и Reddit, независимо от их SEO-позиции.
По мере того как Google продолжает совершенствовать свой Search Generative Experience, баланс между удобством для пользователя и безопасностью остаётся шатким. Интеграция видео в ответы ИИ отражает предпочтение пользователей к вовлекающему медиа, но вводит уровень нестабильности, который опасен в медицинском контексте.
Пока модели ИИ не смогут последовательно различать вирусное видео и рецензируемое исследование, «уверенный авторитет» AI Overviews остаётся обоюдоострым мечом. На данный момент совет экспертов ясен: когда речь идёт о здоровье, пользователям следует относиться к сводкам ИИ с крайней долей скептицизма и проверять все советы по традиционным авторитетным медицинским источникам. Технология изменила то, как мы получаем информацию, но в вопросах жизни и смерти популярность — плохой показатель истины.