
Dans un retrait discret mais significatif, Google a officiellement abandonné « What People Suggest », une fonctionnalité de recherche pilotée par l'IA qui mettait auparavant en avant des conseils médicaux participatifs provenant de forums en ligne. La suppression de cette fonctionnalité, qui avait été conçue pour offrir aux utilisateurs des perspectives d'autres personnes partageant des « expériences vécues » (lived experiences) similaires, marque un autre chapitre dans l'intégration continue, et souvent controversée, de l'intelligence artificielle (IA) dans l'information de santé publique.
Bien que le géant de la technologie soutienne que cette décision faisait partie d'une « simplification plus large » de son interface de recherche, ce mouvement intervient dans un contexte de surveillance accrue concernant la sécurité et l'exactitude du contenu généré par IA dans le domaine médical. Pour les utilisateurs comme pour les observateurs de l'industrie, la disparition de l'outil souligne la tension persistante entre le désir de démocratiser l'information sur la santé et les risques cliniques liés à l'amplification de commentaires non vérifiés et non experts.
Lancé vers mars 2025, « What People Suggest » était positionné comme un pont entre les bases de données médicales professionnelles et les discussions entre pairs. Au moment de ses débuts, les dirigeants de Google affirmaient que si les utilisateurs s'appuient sur les moteurs de recherche pour obtenir des conseils d'experts, il y a une valeur égale à comprendre les expériences vécues par d'autres — par exemple, comment les individus souffrant de maladies chroniques comme l'arthrite gèrent leurs routines d'exercice ou leurs ajustements quotidiens.
Le mécanisme était simple : le système utilisait l'IA pour explorer et synthétiser des fils de discussion provenant de plateformes de discussion telles que Reddit, Quora et X (anciennement Twitter). Il agrégeait ensuite ces points de vue disparates, souvent anecdotiques, en « thèmes » résumés affichés directement sur la page des résultats de recherche.
Cependant, l'efficacité de cette approche a été immédiatement remise en question par les professionnels de la santé et les défenseurs de la sécurité. La principale préoccupation était le potentiel de l'IA à élever des conseils médicaux anecdotiques — et parfois dangereux — au même niveau de visibilité que les directives fondées sur des preuves.
Le risque central de « What People Suggest » résidait dans sa structure fondamentale. En traitant les anecdotes issues de forums avec le même poids algorithmique que les avis professionnels, la fonctionnalité risquait de brouiller la ligne entre l'expérience personnelle et la recommandation clinique.
Début 2026, des enquêtes ont révélé que les Aperçus par IA (AI Overviews) plus larges de Google avaient déjà fait face à un retour de bâton important pour avoir fourni des informations trompeuses, telles que des conseils diététiques incorrects pour les patients atteints de cancer du pancréas ou des résultats de tests de la fonction hépatique mal interprétés. L'inclusion de sentiments communautaires non vérifiés dans ces résumés de recherche a intensifié les inquiétudes concernant la sécurité des patients.
| Type de fonctionnalité | Fiabilité de la source | Niveau de risque |
|---|---|---|
| Recherche médicale (Standard) | Élevée (Évaluée par des pairs/Cliniciens) | Faible |
| Aperçus par IA (Général) | Variable (À l'échelle du web) | Modéré |
| « What People Suggest » | Faible (Anecdotique/Non vérifié) | Élevé |
Les risques associés à cette approche ne sont pas purement théoriques. Lorsque les systèmes d'IA ingèrent et présentent des conseils de profanes, ils manquent souvent du contexte clinique requis pour filtrer la désinformation nuisible. Pour un utilisateur cherchant des conseils sur un problème médical sensible, la différence entre un conseil utile et une suggestion dangereuse peut être une question d'importance pour la santé publique.
La raison invoquée par Google pour la suppression de la fonctionnalité — une « simplification plus large de la page de recherche » — a été accueillie avec scepticisme par certains analystes de l'industrie. Interrogé sur le fait de savoir si les préoccupations de sécurité étaient un facteur contributif, un porte-parole de l'entreprise a maintenu que la décision n'était pas liée à la qualité ou à la sécurité de l'outil, réitérant qu'ils continuent de connecter les utilisateurs à des perspectives de santé fiables.
Cependant, le moment choisi pour ce retrait suggère un recalibrage plus profond de la stratégie d'intégration de l'IA. Alors que les grandes entreprises technologiques font face à une pression croissante concernant la responsabilité de leurs modèles d'IA, la philosophie du « bouger vite et casser des choses » qui a caractérisé les débuts de l'IA générative (Generative AI) est remplacée par une approche plus prudente, axée sur les garde-fous.
Les considérations clés pour les futurs déploiements de recherche par IA (AI search) incluent désormais :
L'échec ou l'arrêt de « What People Suggest » n'est pas nécessairement un échec de la technologie de l'IA, mais plutôt une correction dans l'application de l'IA aux informations sensibles. Google reste engagé dans l'initiative « The Check Up », où les dirigeants de l'entreprise continuent de discuter du rôle de la recherche en IA et des innovations technologiques pour relever les défis de la santé mondiale.
Pour les lecteurs de Creati.ai, ce développement sert de rappel poignant que la valeur de l'IA dans la recherche dépend fortement de la qualité des données qu'elle sélectionne. À mesure que les modèles d'IA deviennent plus aptes à résumer le contenu du Web, le défi passe de la capacité technique à synthétiser du texte à la responsabilité éditoriale de déterminer ce qui devrait être synthétisé.
Le pivot de Google suggère que l'entreprise affine son approche de la sécurité de l'IA (AI safety). Bien que la fonctionnalité « What People Suggest » puisse avoir disparu, la question sous-jacente — comment fournir aux utilisateurs des perspectives personnelles sans sacrifier la précision clinique — reste l'un des défis les plus critiques pour l'avenir de la technologie de recherche. Alors que la course aux armements de l'IA se poursuit, l'industrie apprend qu'en matière de santé humaine, l'exactitude et l'expertise vérifiable doivent toujours primer sur l'attrait de l'engagement.