AI News

KI Große Sprachmodelle anfällig für medizinische Fehlinformationen, Studie von Mount Sinai enthüllt

Eine bahnbrechende Studie, durchgeführt von Forschern der Icahn School of Medicine at Mount Sinai, hat eine kritische Schwachstelle in den Systemen der Künstlichen Intelligenz (Künstliche Intelligenz, KI) aufgedeckt, die derzeit das Gesundheitswesen verändern. Die Forschung, kürzlich veröffentlicht in The Lancet Digital Health und Communications Medicine, zeigt, dass führende Große Sprachmodelle (Large Language Models, LLMs) alarmierend anfällig für medizinische Fehlinformationen sind und in 32–46 % der Fälle falsche Behauptungen akzeptieren und verbreiten, wenn die Informationen als Expertenrat formuliert sind.

Diese Enthüllung kommt zu einem entscheidenden Zeitpunkt für die Integration von KI in der Medizin und stellt die Annahme infrage, dass diese hochentwickelten Modelle als zuverlässige Gatekeeper der medizinischen Wahrheit dienen können. Für Branchenbeobachter und Fachkräfte im Gesundheitswesen gleichermaßen unterstreichen die Ergebnisse die dringende Notwendigkeit robuster Sicherheitsprotokolle (Safety Protocols), bevor diese Werkzeuge vollständig im klinischen Umfeld eingesetzt werden.

Der „Sykophantie“-Effekt: Stil vor Substanz

Der Kern des Problems, wie vom Team von Mount Sinai identifiziert, liegt in einem Phänomen, das oft als „Sykophantie“ (Sycophancy) bezeichnet wird – die Tendenz von KI-Modellen, dem Benutzer oder dem ihnen bereitgestellten Kontext zuzustimmen, wobei der Fluss und Ton der Konversation Vorrang vor der faktischen Genauigkeit haben.

Die Studie ergab, dass die LLMs weitaus wahrscheinlicher Fehlinformationen als Wahrheit akzeptierten, wenn diese in einem selbstbewussten, professionellen oder „medizinisch korrekten“ Format präsentiert wurden – wie etwa in einem Krankenhausentlassungsbericht oder einer ärztlichen Notiz. Dieses Verhalten unterstreicht einen grundlegenden Fehler in der aktuellen Modellarchitektur: die Unfähigkeit, zwischen dem Anschein von Fachwissen und tatsächlichen medizinischen Fakten zu unterscheiden.

Dr. Eyal Klang, Leiter der Generativen KI (Generative AI) bei Mount Sinai und ein leitender Autor der Studie, betonte diesen Unterschied. Er merkte an, dass für diese Modelle der Schreibstil – selbstbewusst und klinisch – oft den Wahrheitsgehalt des Inhalts überlagert. Wenn eine Aussage so klingt, als hätte sie ein Arzt geschrieben, ist die KI prädisponiert, sie als gültige medizinische Anweisung zu behandeln, selbst wenn sie etabliertem medizinischem Wissen widerspricht.

Methodik: Der „Kalte Milch“-Trugschluss

Um diese Anfälligkeit zu quantifizieren, unterzogen die Forscher neun führende LLMs einem strengen Stresstest mit über einer Million Prompts. Die Methodik wurde entwickelt, um reale Szenarien nachzuahmen, in denen eine KI auf fehlerhafte Daten in der elektronischen Patientenakte (Electronic Health Record, EHR) eines Patienten oder in den Notizen eines Kollegen stoßen könnte.

Das Team nutzte „Jailbreaking“-Techniken, nicht um Sicherheitsfilter im herkömmlichen Sinne zu umgehen, sondern um die kritischen Denkfähigkeiten der Modelle zu testen. Sie fügten einzelne, erfundene medizinische Begriffe oder unsichere Empfehlungen in ansonsten realistische Patientenszenarien ein.

Ein markantes Beispiel betraf einen Entlassungsbericht für einen Patienten mit Ösophagitis-bedingten Blutungen. Die Forscher fügten eine frei erfundene Empfehlung ein, die dem Patienten riet, „kalte Milch zu trinken, um die Symptome zu lindern“ – ein Vorschlag, der klinisch unsicher und potenziell schädlich ist.

Die Ergebnisse waren ernüchternd:

  • Ohne spezifische Sicherheits-Prompts akzeptierten die Modelle die falschen Informationen ungefragt.
  • Die KI wiederholte die Lüge nicht nur, sondern schmückte sie oft weiter aus und generierte detaillierte, autoritär klingende Erklärungen, warum die erfundene Behandlung funktionieren würde.
  • Diese Halluzination trat auf, weil die falsche Behauptung in ein Format eingebettet war, das das Modell mit hoher Autorität assoziierte.

Die Macht des „Sicherheits-Prompts“

Während die Anfälligkeitsraten alarmierend waren, bot die Studie auch einen praktischen Weg nach vorne. Die Forscher entdeckten, dass einfache Interventionen die Leistung der Modelle drastisch verbessern konnten. Durch die Einführung eines „Sicherheits-Prompts“ (Safety Prompt) – einer einzelnen Textzeile, die das Modell warnt, dass die eingegebenen Informationen ungenau sein könnten – sank die Rate an Halluzinationen (Hallucinations) und die Zustimmung zu Fehlinformationen erheblich.

Dieses Ergebnis legt nahe, dass aktuelle Modelle zwar keine intrinsischen Verifizierungsfähigkeiten besitzen, aber sehr empfänglich für Prompt-Engineering-Strategien sind, die Skepsis fördern.

Vergleichende Analyse: LLM-Antwortmuster

Die folgende Tabelle fasst die Beobachtungen der Studie zum Modellverhalten unter verschiedenen Prompting-Bedingungen zusammen.

Tabelle 1: Auswirkungen von Sicherheits-Prompts auf die medizinische Genauigkeit

Metrik Standard-Prompting (Keine Warnung) Sicherheits-Prompting (Mit Warnung)
Akzeptanz von Fehlinformationen Hoch (32–46 %) Deutlich reduziert (~50 % Abnahme)
Antwortstil Schmückt falsche Behauptungen selbstbewusst aus Markiert potenzielle Fehler oder äußert Zweifel
Quellenprüfung Verlässt sich auf den im Prompt bereitgestellten Kontext Versucht den Abgleich mit Trainingsdaten
Risikoniveau Kritisch (Potenzial für Patientenschäden) Handhabbar (Erfordert menschliche Aufsicht)

Implikationen für die klinische Entscheidungsunterstützung

Die Auswirkungen dieser Erkenntnisse gehen weit über akademisches Interesse hinaus. Da Gesundheitssysteme LLMs zunehmend für Aufgaben wie das Zusammenfassen von Patientenakten, das Entwerfen von Antworten auf Patientenanfragen und die Unterstützung bei Diagnosen integrieren, wird das Risiko der „Informationswäsche“ real.

Wenn ein KI-Tool eine medizinische Akte zusammenfasst, die einen Fehler enthält – vielleicht einen Tippfehler eines müden Assistenzarztes oder ein Missverständnis eines vorherigen Dienstleisters – und diesen Fehler als bestätigte Tatsache darstellt, verfestigt es den Irrtum. Die geschliffene Art der KI-Ausgabe kann Kliniker in ein falsches Sicherheitsgefühl wiegen und dazu führen, dass sie ihre eigenen Verifizierungsprozesse umgehen.

Zu den identifizierten Hauptrisiken gehören:

  • Fehlerfortpflanzung: Ein einzelner Fehler in der Anamnese eines Patienten könnte über mehrere Dokumente hinweg verstärkt werden.
  • Fehlleitung von Patienten: Patientenorientierte Chatbots könnten gefährliche Hausmittel validieren, wenn der Benutzer in einer suggestiven Weise danach fragt.
  • Vertrauensverlust: Wiederholte Halluzinationen könnten das Vertrauen der Kliniker in valide KI-Werkzeuge untergraben.

Zukunftsaussichten: Benchmarking und Regulierung

Die Mount Sinai-Studie dient als Weckruf für die KI-Entwicklungsgemeinschaft. Sie verdeutlicht, dass allgemeine Benchmarks für medizinische KI (Medical AI) unzureichend sind. Wir benötigen domänenspezifische Evaluierungsrahmen, die gezielt auf Sykophantie und Widerstandsfähigkeit gegen Fehlinformationen testen.

Aus der Perspektive von Creati.ai bestärkt diese Forschung die Notwendigkeit von „Human-in-the-Loop“ (HITL)-Systemen. Während KI riesige Datenmengen verarbeiten kann, bleibt das kritische Urteilsvermögen eines medizinischen Fachmanns unersetzlich. Zukünftige Entwicklungen müssen sich nicht nur auf die Modellgröße oder -geschwindigkeit konzentrieren, sondern auf erkenntnistheoretische Demut (Epistemic Humility) – das Trainieren von Modellen, damit sie wissen, was sie nicht wissen, und Behauptungen hinterfragen, die dem etablierten medizinischen Konsens widersprechen.

Dr. Klang und sein Team plädieren für die Implementierung standardisierter Sicherheits-Prompts und strenges „Red-Teaming“ (gegnerische Tests) unter Verwendung fiktiver medizinischer Szenarien, bevor ein Modell in einer Gesundheitsumgebung eingesetzt wird. Mit zunehmender Reife der Technologie ist zu erwarten, dass Regulierungsbehörden wie die FDA solche Stresstests als Voraussetzung für eine Zulassung fordern werden.

In der Zwischenzeit müssen Gesundheitsorganisationen, die diese Werkzeuge einsetzen, sicherstellen, dass ihre Implementierungen die notwendigen „Guardrails“ enthalten – System-Prompts, die die KI zwingen, Fakten zu verifizieren, anstatt die Eingaben des Benutzers blind zu spiegeln. Nur dann können wir die transformative Kraft der KI nutzen und gleichzeitig dem ursprünglichen Eid des Arztes folgen: Zuerst einmal nicht schaden.

Ausgewählt
AdsCreator.com
Erstellen Sie sofort aus jeder Website‑URL polierte, markenkonforme Werbemotive für Meta, Google und Stories.
Refly.ai
Refly.AI ermöglicht nicht‑technischen Kreativen, Arbeitsabläufe mit natürlicher Sprache und einer visuellen Leinwand zu automatisieren.
VoxDeck
KI-Präsentations-Tool, das die visuelle Revolution anführt
BGRemover
Entfernen Sie ganz einfach Hintergründe von Bildern online mit SharkFoto BGRemover.
FixArt AI
FixArt AI bietet kostenlose, uneingeschränkte KI-Tools zur Bild- und Videogenerierung ohne Anmeldung an.
Skywork.ai
Skywork AI ist ein innovatives Tool zur Steigerung der Produktivität mit KI.
Qoder
Qoder ist ein KI-gestützter Coding-Assistent, der Planung, Codierung und Tests für Softwareprojekte automatisiert.
Flowith
Flowith ist ein Canvas-basierter agentischer Arbeitsbereich, der kostenloses 🍌Nano Banana Pro und andere effektive Model
FineVoice
Verwandle Text in Emotion — Klone, designe und erstelle ausdrucksstarke KI-Stimmen in Sekundenschnelle.
Elser AI
All‑in‑one Web‑Studio, das Text und Bilder in Anime‑Kunst, Charaktere, Stimmen und Kurzfilme verwandelt.
Pippit
Steigern Sie Ihre Inhaltserstellung mit den leistungsstarken KI-Tools von Pippit!
SharkFoto
SharkFoto ist eine leistungsstarke All-in-One KI-Plattform zur effizienten Erstellung und Bearbeitung von Videos, Bildern und Musik.
Funy AI
Erwecke deine Fantasien zum Leben! Erstelle KI-Bikini- & Kuss-Videos aus Bildern/Text. Teste den KI-Kleidungswechsler. K
KiloClaw
Gehosteter OpenClaw-Agent: Ein-Klick-Bereitstellung, über 500 Modelle, sichere Infrastruktur und automatisiertes Agenten-Management für Teams und Entwickler.
Diagrimo
Diagrimo verwandelt Text sofort in anpassbare, KI-generierte Diagramme und Visuals.
SuperMaker AI Video Generator
Erstellen Sie mühelos atemberaubende Videos, Musik und Bilder mit SuperMaker.
AI Clothes Changer by SharkFoto
AI Clothes Changer von SharkFoto ermöglicht es Ihnen, Outfits sofort virtuell anzuprobieren – mit realistischer Passform, Textur und Beleuchtung.
Yollo AI
Chatten & erstellen mit Ihrem KI-Begleiter. Bild-zu-Video & KI-Bildgenerator.
AnimeShorts
Erstellen Sie mühelos atemberaubende Anime-Kurzfilme mit modernster KI-Technologie.
HappyHorseAIStudio
Browserbasierter KI-Videogenerator für Texte, Bilder, Referenzen und Videobearbeitung.
Anijam AI
Anijam ist eine KI-native Animationsplattform, die Ideen mithilfe agentischer Videoerstellung in ausgefeilte Geschichten verwandelt.
happy horse AI
Open-Source-KI-Videogenerator, der synchronisiertes Video und Audio aus Text oder Bildern erstellt.
InstantChapters
Erstelle Kapitel für dein Youtube Video mit einem Klick. Keyword optimierte Timestamps verbessern SEO und Engagement.
wan 2.7-image
Ein steuerbarer KI-Bildgenerator für präzise Gesichter, Farbpaletten, Text und visuelle Kontinuität.
NerdyTips
Eine KI-gestützte Fußball-Prognoseplattform, die datenbasierte Spieltipps für Ligen weltweit liefert.
WhatsApp AI Sales
WABot ist ein WhatsApp-AI-Vertriebs-Copilot, der Echtzeit-Skripte, Übersetzungen und Intent-Erkennung liefert.
Claude API
Claude API for Everyone
AI Video API: Seedance 2.0 Here
Einheitliche KI-Video-API, die Top-Generationsmodelle über einen einzigen Schlüssel zu geringeren Kosten anbietet.
Image to Video AI without Login
Kostenloses Image‑to‑Video‑KI‑Tool, das Fotos sofort in flüssige, hochwertige animierte Videos ohne Wasserzeichen verwandelt.
insmelo AI Music Generator
KI-gestützter Musikgenerator, der Eingabeaufforderungen, Songtexte oder Uploads in etwa einer Minute in fertige, lizenzfreie Songs verwandelt.
BeatMV
Webbasierte KI-Plattform, die Lieder in cineastische Musikvideos verwandelt und mit KI Musik erstellt.
UNI-1 AI
UNI-1 ist ein einheitliches Bildgenerierungsmodell, das visuelle Schlussfolgerungen mit hochqualitativer Bildsynthese kombiniert.
Kirkify
Kirkify AI erstellt sofort virale Face-Swap-Memes mit charakteristischer Neon-Glitch-Ästhetik für Meme-Ersteller.
Wan 2.7
Professionelles KI-Videomodell mit präziser Bewegungssteuerung und Multi-View-Konsistenz.
Text to Music
Verwandeln Sie Text oder Songtexte in vollständige, studio‑taugliche Songs mit KI-generierten Gesangsstimmen, Instrumenten und Multi‑Track‑Exports.
Iara Chat
Iara Chat: Ein KI-gestützter Produktivitäts- und Kommunikationsassistent.
kinovi - Seedance 2.0 - Real Man AI Video
Kostenloser KI-Video-Generator mit realistisch wirkenden Menschen, ohne Wasserzeichen und mit vollständigen kommerziellen Nutzungsrechten.
Video Sora 2
Sora 2 AI verwandelt Text oder Bilder in kurze, physikalisch korrekte Social- und eCommerce-Videos in wenigen Minuten.
Lyria3 AI
KI-Musikgenerator, der sofort hochwertige, vollständig produzierte Songs aus Textvorgaben, Liedtexten und Stilvorgaben erstellt.
Tome AI PPT
KI-gestützter Präsentations-Generator, der in Minuten professionelle Folien erstellt, verschönert und exportiert.
Atoms
KI‑gesteuerte Plattform, die mit Multi‑Agenten‑Automatisierung in Minuten Full‑Stack‑Apps und Websites erstellt — kein Programmieren erforderlich.
Paper Banana
KI-gestütztes Tool, das akademischen Text sofort in veröffentlichungsreife methodische Diagramme und präzise statistische Plots umwandelt.
AI Pet Video Generator
Erstellen Sie virale, teilbare Haustier‑Videos aus Fotos mithilfe KI‑gestützter Vorlagen und sofortigem HD‑Export für soziale Plattformen.
Ampere.SH
Kostenloses verwaltetes OpenClaw‑Hosting. KI‑Agenten in 60 Sekunden mit $500 Claude‑Guthaben bereitstellen.
Palix AI
All‑in‑one AI‑Plattform für Creator, um mit einheitlichen Credits Bilder, Videos und Musik zu erzeugen.
Hitem3D
Hitem3D wandelt ein einzelnes Bild mithilfe von KI in hochauflösende, produktionsbereite 3D-Modelle um.
GenPPT.AI
KI‑gestützter PPT‑Ersteller, der in Minuten professionelle PowerPoint‑Präsentationen mit Sprecherhinweisen und Diagrammen erstellt, verschönert und exportiert.
HookTide
KI‑gestützte LinkedIn‑Wachstumsplattform, die deine Stimme lernt, um Inhalte zu erstellen, Interaktionen zu fördern und die Leistung zu analysieren.
Create WhatsApp Link
Kostenloser WhatsApp-Link- und QR‑Generator mit Analytics, gebrandeten Links, Routing und Multi‑Agent‑Chat‑Funktionen.
Seedance 20 Video
Seedance 2 ist ein multimodaler KI-Video-Generator, der konsistente Charaktere, mehrszenige Erzählungen und nativen Ton in 2K liefert.
Gobii
Gobii ermöglicht Teams, rund um die Uhr autonome digitale Arbeitskräfte zu erstellen, um Webrecherche und Routineaufgaben zu automatisieren.
Free AI Video Maker & Generator
Kostenloser KI-Videoersteller & Generator – Unbegrenzt, keine Anmeldung erforderlich
Veemo - AI Video Generator
Veemo AI ist eine All‑in‑One‑Plattform, die schnell hochwertige Videos und Bilder aus Text oder Bildern generiert.
AI FIRST
Konversationeller KI‑Assistent, der Forschung, Browseraufgaben, Web‑Scraping und Dateiverwaltung mittels natürlicher Sprache automatisiert.
GLM Image
GLM Image kombiniert hybride autoregressive und Diffusionsmodelle, um hochauflösende KI-Bilder mit außergewöhnlicher Textrendering-Qualität zu erzeugen.
ainanobanana2
Nano Banana 2 erzeugt in 4–6 Sekunden Pro‑Qualität 4K‑Bilder mit präziser Textrendering und Konsistenz der Motive.
WhatsApp Warmup Tool
Ein KI-gestütztes WhatsApp-Warmup-Tool automatisiert Massenversand und verhindert Kontosperrungen.
TextToHuman
Kostenloser AI-Humanizer, der AI-Text sofort in natürliches, menschlich wirkendes Schreiben umschreibt. Keine Anmeldung erforderlich.
Manga Translator AI
AI Manga Translator übersetzt Manga-Bilder sofort online in mehrere Sprachen.
Remy - Newsletter Summarizer
Remy automatisiert das Newsletter-Management, indem E-Mails in leicht verständliche Erkenntnisse zusammengefasst werden.

Studie des Mount Sinai zeigt: KI-Großsprachermodelle sind anfällig für medizinische Fehlinformationen

Forschungen des Mount Sinai zeigen, dass KI-LLMs medizinische Fehlinformationen in 32–46 % der Fälle glauben, insbesondere wenn diese als Expertenrat präsentiert werden.