
In einem ruhigen, aber bedeutenden Rückzug hat Google offiziell „What People Suggest“ eingestellt, eine KI-gesteuerte (AI-driven) Suchfunktion, die zuvor Crowdsourcing-basierte medizinische Ratschläge aus Online-Foren anzeigte. Die Entfernung der Funktion, die darauf ausgelegt war, Nutzern Einblicke von anderen zu geben, die ähnliche gelebte Erfahrungen teilen, markiert ein weiteres Kapitel in der laufenden, oft umstrittenen Integration von Künstlicher Intelligenz in Informationen zur öffentlichen Gesundheit.
Während der Tech-Riese behauptet, dass die Entscheidung Teil einer „breiteren Vereinfachung“ seiner Suchoberfläche war, erfolgt der Schritt inmitten verschärfter Kontrollen hinsichtlich der Sicherheit und Genauigkeit von KI-generierten Inhalten im medizinischen Bereich. Für Nutzer und Branchenbeobachter gleichermaßen verdeutlicht das Verschwinden des Tools das anhaltende Spannungsfeld zwischen dem Wunsch nach Demokratisierung von Gesundheitsinformationen und den klinischen Risiken der Verstärkung unverifizierter, nicht-expertenhafter Kommentare.
Eingeführt um den März 2025, wurde „What People Suggest“ als Brücke zwischen professionellen medizinischen Datenbanken und Peer-to-Peer-Diskussionen positioniert. Zum Zeitpunkt des Debüts argumentierten Google-Führungskräfte, dass Nutzer zwar auf Suchmaschinen für Expertenrat angewiesen sind, es aber einen ebenso hohen Wert hat, die „gelebten Erfahrungen“ anderer zu verstehen – etwa wie Personen mit chronischen Erkrankungen wie Arthritis Trainingsroutinen oder tägliche Anpassungen bewältigen.
Der Mechanismus war einfach: Das System nutzte KI, um Threads von Diskussionsplattformen wie Reddit, Quora und X (ehemals Twitter) zu durchsuchen und zu synthetisieren. Es aggregierte dann diese disparaten, oft anekdotischen Standpunkte zu zusammengefassten „Themen“, die direkt auf der Suchergebnisseite angezeigt wurden.
Die Wirksamkeit dieses Ansatzes wurde jedoch von Medizinern und Sicherheitsbeauftragten sofort infrage gestellt. Die Hauptsorge bestand darin, dass die KI anekdotische – und gelegentlich gefährliche – medizinische Ratschläge auf die gleiche Sichtbarkeitsebene wie evidenzbasierte Anleitungen heben könnte.
Das Kernrisiko von „What People Suggest“ lag in seiner grundlegenden Struktur. Indem forenbasierte Anekdoten mit dem gleichen algorithmischen Gewicht wie professionelle Erkenntnisse behandelt wurden, riskierte die Funktion, die Linie zwischen persönlicher Erfahrung und klinischer Empfehlung zu verwischen.
Anfang 2026 enthüllten Untersuchungen, dass Googles breitere KI-Übersichten (AI Overviews) bereits erhebliche Kritik für die Bereitstellung irreführender Informationen erhalten hatten, wie etwa falsche Ernährungstipps für Bauchspeicheldrüsenkrebspatienten oder missinterpretierte Leberfunktionstestergebnisse. Die Einbeziehung unverifizierter Community-Meinungen in diese Suchzusammenfassungen verstärkte die Bedenken hinsichtlich der Patientensicherheit.
| Merkmalstyp | Vertrauenswürdigkeit der Quelle | Risikostufe |
|---|---|---|
| Medizinische Suche (Standard) | Hoch (Peer-Review/Klinisch) | Niedrig |
| KI-Übersichten (Allgemein) | Variabel (Webweit) | Moderat |
| „What People Suggest“ | Niedrig (Anekdotisch/Nicht verifiziert) | Hoch |
Die mit diesem Ansatz verbundenen Risiken sind nicht nur theoretisch. Wenn KI-Systeme Ratschläge von Laien aufnehmen und präsentieren, fehlt ihnen oft der klinische Kontext, der erforderlich ist, um schädliche Fehlinformationen herauszufiltern. Für einen Nutzer, der nach Anleitung zu einem sensiblen medizinischen Problem sucht, kann der Unterschied zwischen einem hilfreichen Tipp und einem gefährlichen Vorschlag eine Angelegenheit von Bedeutung für die öffentliche Gesundheit sein.
Googles angegebener Grund für die Entfernung der Funktion – eine „breitere Vereinfachung der Suchseite“ – wurde von einigen Branchenanalysten mit Skepsis aufgenommen. Auf die Frage, ob Sicherheitsbedenken ein beitragender Faktor waren, erklärte ein Unternehmenssprecher, dass die Entscheidung nicht mit der Qualität oder Sicherheit des Tools zusammenhing, und betonte erneut, dass man die Nutzer weiterhin mit zuverlässigen Gesundheitsperspektiven verbindet.
Der Zeitpunkt der Entfernung deutet jedoch auf eine tiefere Neukalibrierung der KI-Integrationsstrategie hin. Da große Tech-Unternehmen zunehmendem Druck hinsichtlich der Haftung ihrer KI-Modelle ausgesetzt sind, wird die Philosophie „schnell handeln und Dinge kaputt machen“, die die frühen Tage der generativen KI (Generative AI) prägte, durch einen vorsichtigeren, auf Schutzleitplanken fokussierten Ansatz ersetzt.
Wichtige Überlegungen für künftige KI-Suche (AI search)-Einsätze umfassen nun:
Das Scheitern oder die Einstellung von „What People Suggest“ ist nicht notwendigerweise ein Versagen der KI-Technologie, sondern vielmehr eine Korrektur in der Anwendung von KI auf sensible Informationen. Google bekennt sich weiterhin zur Initiative „The Check Up“, in der Unternehmensleiter weiterhin die Rolle von KI-Forschung und technologischen Innovationen bei der Bewältigung globaler Gesundheitsherausforderungen diskutieren.
Für Leser von Creati.ai dient diese Entwicklung als eindringliche Erinnerung daran, dass der Wert von KI in der Suche stark von der Qualität der von ihr kuratierten Daten abhängt. Da KI-Modelle immer besser darin werden, Webinhalte zusammenzufassen, verlagert sich die Herausforderung von der technischen Fähigkeit, Text zu synthetisieren, hin zur redaktionellen Verantwortung zu bestimmen, was synthetisiert werden sollte.
Googles Kehrtwende deutet darauf hin, dass das Unternehmen seinen Ansatz zur KI-Sicherheit (AI safety) verfeinert. Während die Funktion „What People Suggest“ verschwunden sein mag, bleibt die zugrunde liegende Frage – wie man Nutzern persönliche Perspektiven bietet, ohne die klinische Genauigkeit zu opfern – eine der kritischsten Herausforderungen für die Zukunft der Suchtechnologie. Während das KI-Wettrüsten weitergeht, lernt die Branche, dass es bei der menschlichen Gesundheit immer auf Genauigkeit und verifizierbare Expertise ankommt, die Vorrang vor dem Reiz der Nutzerbindung haben müssen.