
En una retirada discreta pero significativa, Google ha descontinuado oficialmente "What People Suggest" (Lo que la gente sugiere), una función de búsqueda impulsada por IA que anteriormente presentaba consejos médicos obtenidos mediante colaboración abierta (crowdsourced) de foros en línea. La eliminación de esta función, que había sido diseñada para proporcionar a los usuarios perspectivas de otros que comparten experiencias vividas similares, marca otro capítulo en la integración continua, y a menudo polémica, de la inteligencia artificial en la información de salud pública.
Si bien el gigante tecnológico sostiene que la decisión fue parte de una "simplificación más amplia" de su interfaz de búsqueda, la medida se produce en medio de un mayor escrutinio sobre la seguridad y la precisión del contenido generado por IA en el dominio médico. Tanto para los usuarios como para los observadores de la industria, la desaparición de la herramienta resalta la tensión persistente entre el deseo de democratizar la información de salud y los riesgos clínicos de amplificar comentarios no verificados de personas no expertas.
Lanzada alrededor de marzo de 2025, "What People Suggest" se posicionó como un puente entre las bases de datos médicas profesionales y la discusión entre pares. En el momento de su debut, los ejecutivos de Google argumentaron que, si bien los usuarios confían en los motores de búsqueda para obtener consejos de expertos, existe un valor igual en comprender las "experiencias vividas" de otros, como la forma en que las personas con afecciones crónicas como la artritis gestionan las rutinas de ejercicio o los ajustes diarios.
El mecanismo era sencillo: el sistema utilizaba IA para rastrear y sintetizar hilos de plataformas de discusión como Reddit, Quora y X (anteriormente Twitter). Luego, agregaba estos puntos de vista dispares y a menudo anecdóticos en "temas" resumidos que se mostraban directamente en la página de resultados de búsqueda.
Sin embargo, la eficacia de este enfoque fue cuestionada de inmediato por profesionales médicos y defensores de la seguridad. La principal preocupación era la posibilidad de que la IA elevara consejos médicos anecdóticos —y ocasionalmente peligrosos— al mismo nivel de visibilidad que la orientación basada en evidencia.
El riesgo principal de "What People Suggest" residía en su estructura fundamental. Al tratar las anécdotas basadas en foros con el mismo peso algorítmico que los conocimientos profesionales, la función corría el riesgo de desdibujar la línea entre la experiencia personal y la recomendación clínica.
A principios de 2026, las investigaciones revelaron que los Resúmenes de IA (AI Overviews) más amplios de Google ya habían enfrentado una reacción negativa significativa por proporcionar información engañosa, como consejos dietéticos incorrectos para pacientes con cáncer de páncreas o resultados de pruebas de función hepática mal interpretados. La inclusión del sentimiento comunitario no verificado en estos resúmenes de búsqueda intensificó las preocupaciones sobre la seguridad del paciente.
| Tipo de función | Confiabilidad de la fuente | Nivel de riesgo |
|---|---|---|
| Búsqueda médica (Estándar) | Alta (Revisada por pares/Clínica) | Bajo |
| Resúmenes de IA (AI Overviews) (General) | Variable (A nivel web) | Moderado |
| "What People Suggest" | Baja (Anecdótica/No verificada) | Alto |
Los riesgos asociados con este enfoque no son meramente teóricos. Cuando los sistemas de IA ingieren y presentan consejos de personas laicas, a menudo carecen del contexto clínico necesario para filtrar la desinformación dañina. Para un usuario que busca orientación sobre un problema médico delicado, la diferencia entre un consejo útil y una sugerencia peligrosa puede ser una cuestión de importancia para la salud pública.
El motivo declarado por Google para eliminar la función —una "simplificación más amplia de la página de búsqueda"— ha sido recibido con escepticismo por algunos analistas de la industria. Cuando se le presionó sobre si los problemas de seguridad fueron un factor contribuyente, un portavoz de la empresa sostuvo que la decisión no estaba relacionada con la calidad o la seguridad de la herramienta, reiterando que continúan conectando a los usuarios con perspectivas de salud confiables.
Sin embargo, el momento de la eliminación sugiere una recalibración más profunda de la estrategia de integración de la IA. A medida que las principales empresas tecnológicas enfrentan una presión creciente con respecto a la responsabilidad legal de sus modelos de IA, la filosofía de "moverse rápido y romper cosas" que caracterizó los primeros días de la IA generativa (Generative AI) está siendo reemplazada por un enfoque más cauteloso y centrado en las barandillas de seguridad.
Las consideraciones clave para futuros despliegues de búsqueda de IA (AI search) ahora incluyen:
El fracaso o la descontinuación de "What People Suggest" no es necesariamente un fracaso de la tecnología de IA, sino más bien una corrección en la aplicación de la IA a información sensible. Google sigue comprometido con la iniciativa "The Check Up", donde los líderes de la empresa continúan discutiendo el papel de la investigación de la IA y las innovaciones tecnológicas para abordar los desafíos de salud global.
Para los lectores de Creati.ai, este desarrollo sirve como un recordatorio conmovedor de que el valor de la IA en la búsqueda depende en gran medida de la calidad de los datos que cura. A medida que los modelos de IA se vuelven más expertos en resumir el contenido web, el desafío se desplaza de la capacidad técnica para sintetizar texto a la responsabilidad editorial de determinar qué debería sintetizarse.
El giro de Google sugiere que la empresa está refinando su enfoque hacia la seguridad de la IA (AI safety). Si bien la función "What People Suggest" puede haber desaparecido, la pregunta subyacente —cómo proporcionar a los usuarios perspectivas personales sin sacrificar la precisión clínica— sigue siendo uno de los desafíos más críticos para el futuro de la tecnología de búsqueda. A medida que continúa la carrera armamentista de la IA, la industria está aprendiendo que cuando se trata de la salud humana, la precisión y la experiencia verificable siempre deben tener prioridad sobre el atractivo de la interacción.