
Em um recuo silencioso, mas significativo, o Google descontinuou oficialmente o "O que as Pessoas Sugerem" (What People Suggest), um recurso de busca impulsionado por IA (AI-driven) que anteriormente exibia conselhos médicos baseados em colaboração coletiva (crowdsourced) de fóruns online. A remoção do recurso, que havia sido projetado para fornecer aos usuários percepções de outras pessoas que compartilham experiências de vida semelhantes, marca mais um capítulo na integração contínua, e muitas vezes contenciosa, da inteligência artificial nas informações de saúde pública.
Embora a gigante da tecnologia sustente que a decisão foi parte de uma "simplificação mais ampla" de sua interface de busca, a mudança ocorre em meio ao aumento da fiscalização em relação à segurança e precisão do conteúdo gerado por IA no domínio médico. Tanto para usuários quanto para observadores do setor, o desaparecimento da ferramenta destaca a tensão persistente entre o desejo de democratizar as informações de saúde e os riscos clínicos de amplificar comentários não verificados e de não especialistas.
Lançado por volta de março de 2025, o "O que as Pessoas Sugerem" foi posicionado como uma ponte entre bancos de dados médicos profissionais e discussões entre pares. No momento de sua estreia, os executivos do Google argumentaram que, embora os usuários confiem nos mecanismos de busca para obter conselhos de especialistas, há um valor igual em compreender as "experiências vividas" por outros — como a forma como indivíduos com condições crônicas, como artrite, gerenciam rotinas de exercícios ou ajustes diários.
O mecanismo era simples: o sistema utilizava IA para rastrear e sintetizar tópicos de plataformas de discussão como Reddit, Quora e X (antigo Twitter). Em seguida, agregava esses pontos de vista díspares, muitas vezes anedóticos, em "temas" resumidos exibidos diretamente na página de resultados de busca.
No entanto, a eficácia dessa abordagem foi imediatamente questionada por profissionais médicos e defensores da segurança. A principal preocupação era o potencial da IA para elevar conselhos médicos anedóticos — e ocasionalmente perigosos — ao mesmo nível de visibilidade das orientações baseadas em evidências.
O risco central do "O que as Pessoas Sugerem" residia em sua estrutura fundamental. Ao tratar anedotas baseadas em fóruns com o mesmo peso algorítmico que as percepções profissionais, o recurso corria o risco de confundir a linha entre experiência pessoal e recomendação clínica.
No início de 2026, investigações revelaram que as Visões Gerais de IA (AI Overviews) mais amplas do Google já haviam enfrentado reações negativas significativas por fornecerem informações enganosas, como conselhos dietéticos incorretos para pacientes com câncer de pâncreas ou resultados de testes de função hepática interpretados erroneamente. A inclusão do sentimento da comunidade não verificado nesses resumos de busca intensificou as preocupações sobre a segurança do paciente.
| Tipo de Recurso | Confiabilidade da Fonte | Nível de Risco |
|---|---|---|
| Busca Médica (Padrão) | Alta (Revisada por pares/Clínica) | Baixo |
| Visões Gerais de IA (Geral) | Variável (Toda a web) | Moderado |
| "O que as Pessoas Sugerem" | Baixa (Anedótica/Não verificada) | Alto |
Os riscos associados a essa abordagem não são meramente teóricos. Quando os sistemas de IA ingerem e apresentam conselhos de leigos, eles frequentemente carecem do contexto clínico necessário para filtrar desinformações prejudiciais. Para um usuário que busca orientação sobre um problema médico sensível, a diferença entre uma dica útil e uma sugestão perigosa pode ser uma questão de importância para a saúde pública.
O motivo declarado pelo Google para remover o recurso — uma "simplificação mais ampla da página de busca" — foi recebido com ceticismo por alguns analistas do setor. Ao ser questionado se as preocupações com a segurança foram um fator contribuinte, um porta-voz da empresa manteve que a decisão não estava relacionada à qualidade ou segurança da ferramenta, reiterando que continuam a conectar os usuários com perspectivas de saúde confiáveis.
No entanto, o momento da remoção sugere uma recalibração mais profunda da estratégia de integração de IA. À medida que as grandes empresas de tecnologia enfrentam uma pressão crescente em relação à responsabilidade de seus modelos de IA, a filosofia de "mover-se rápido e quebrar as coisas" que caracterizou os primeiros dias da IA generativa (Generative AI) está sendo substituída por uma abordagem mais cautelosa e focada em salvaguardas.
As principais considerações para futuras implantações de busca com IA agora incluem:
A falha ou descontinuação do "O que as Pessoas Sugerem" não é necessariamente uma falha da tecnologia de IA, mas sim uma correção na aplicação da IA a informações sensíveis. O Google permanece comprometido com a iniciativa "The Check Up", onde os líderes da empresa continuam a discutir o papel da pesquisa de IA e das inovações tecnológicas no enfrentamento dos desafios de saúde global.
Para os leitores da Creati.ai, este desenvolvimento serve como um lembrete contundente de que o valor da IA na busca depende fortemente da qualidade dos dados que ela faz a curadoria. À medida que os modelos de IA se tornam mais adeptos a resumir o conteúdo da web, o desafio muda da habilidade técnica de sintetizar texto para a responsabilidade editorial de determinar o que deve ser sintetizado.
A mudança do Google sugere que a empresa está refinando sua abordagem à segurança de IA (AI safety). Embora o recurso "O que as Pessoas Sugerem" possa ter desaparecido, a questão subjacente — como fornecer aos usuários perspectivas pessoais sem sacrificar a precisão clínica — continua sendo um dos desafios mais críticos para o futuro da tecnologia de busca. À medida que a corrida armamentista da IA continua, a indústria está aprendendo que, quando se trata de saúde humana, a precisão e a perícia verificável devem sempre ter precedência sobre o fascínio do engajamento.