
Große Sprachmodelle (Large Language Models, LLMs) haben die Art und Weise, wie wir mit Technologie interagieren, verändert, aber ihre Tendenz, „selbstbewusst falsche“ Informationen zu generieren, bleibt eine erhebliche Hürde. Wenn ein KI-System eine ungenaue oder erfundene Antwort mit hoher Gewissheit präsentiert, erzeugt dies eine gefährliche Illusion von Kompetenz. In hochriskanten Bereichen wie dem Gesundheitswesen, juristischen Dienstleistungen und dem Finanzwesen können diese Halluzinationen (Hallucinations) verheerende Auswirkungen auf die reale Welt haben.
Seit Jahren verlassen sich Entwickler auf „Selbstkonsistenz“-Prüfungen (Self-Consistency) – die Prüfung, ob ein Modell bei mehrfacher Abfrage die gleiche Antwort gibt –, um die Zuverlässigkeit zu messen. Untersuchungen des Massachusetts Institute of Technology (MIT) legen jedoch nahe, dass dieser Ansatz grundlegend begrenzt ist. Da ein Modell über mehrere Iterationen hinweg konsistent falsch liegen kann, versagt die Selbstkonsistenz oft dabei zu erkennen, wann ein System tatsächlich halluziniert. Um dies zu adressieren, hat ein Forscherteam am MIT eine neue, robustere Metrik eingeführt, die als „Total Uncertainty“ (TU) bekannt ist und verspricht, die Art und Weise, wie wir KI-Zuverlässigkeit messen, neu zu definieren.
Die Kerninnovation, die vom MIT-Team unter der Leitung der Doktorandin für Elektro- und Informatiktechnik Kimia Hamidieh entwickelt wurde, geht über die Grenzen der Einzelmodellanalyse hinaus. Die Forscher argumentieren, dass herkömmliche Methoden primär die aleatorische Unsicherheit (Aleatoric Uncertainty) messen – das interne Vertrauen eines einzelnen Modells –, was nicht ausreicht, um zu identifizieren, wann es einem System an echtem Wissen mangelt.
Um dies zu lösen, bezieht die MIT-Methode die epistemische Unsicherheit (Epistemic Uncertainty) ein, die die „Wissenslücken“ adressiert, die dem Training des Modells inhärent sind. Durch Messen, wie stark ein Zielmodell mit einem vielfältigen Ensemble anderer LLMs nicht übereinstimmt, kann das System genauer zwischen einem Modell unterscheiden, das wirklich sicher ist, und einem, das lediglich halluziniert.
Die MIT-Methode verlässt sich nicht auf einen einzelnen, monolithischen Test. Stattdessen nutzt sie ein Ensemble von LLMs verschiedener Entwickler. Durch den Vergleich der semantischen Ähnlichkeit der Ausgabe eines Zielmodells mit den Antworten einer kuratierten Gruppe unterschiedlicher LLMs kann das System die Divergenz quantifizieren. Wenn die Modelle sehr unterschiedliche Antworten liefern, ist die epistemische Unsicherheit hoch, was die Antwort als unzuverlässig kennzeichnet.
Diese Metrik der „Gesamtunsicherheit“ (Total Uncertainty, TU) wird durch die Summe der aleatorischen Unsicherheit (interne Konsistenz) und der epistemischen Unsicherheit (modellübergreifende Uneinigkeit) berechnet. Dieser zweistufige Ansatz schafft einen umfassenderen Sicherheitsfilter. Den Forschern zufolge übertraf diese Methode bestehende eigenständige Maße bei zehn realistischen Aufgaben, darunter mathematisches Schließen, Übersetzung und faktische Beantwortung von Fragen, konsistent.
Um zu verstehen, warum dieser Ansatz überlegen ist, muss verglichen werden, wie verschiedene Methoden mit KI-Unsicherheit umgehen. Die folgende Tabelle skizziert die Hauptunterschiede zwischen der Standard-Selbstkonsistenz und der neuen ensemblebasierten Metrik der Gesamtunsicherheit.
| Methode | Kernmechanismus | Haupteinschränkung |
|---|---|---|
| Selbstkonsistenz (Self-Consistency) | Mehrere Stichproben von einem Modell | Anfällig für geteilte interne Verzerrungen |
| Epistemische Unsicherheit (Epistemic Uncertainty) | Modellübergreifende Konsensprüfung | Erfordert Zugriff auf mehrere Modelle |
| Gesamtunsicherheit (Total Uncertainty, TU) | Kombinierte aleatorische & epistemische Unsicherheit | Höherer initialer Rechenaufwand |
Der Einsatz der Metrik für Gesamtunsicherheit hat tiefgreifende Auswirkungen auf die Zukunft der KI-Sicherheit (AI Safety). Durch das genaue Markieren von Halluzinationen ermöglicht die TU-Metrik den Entwicklern den Übergang zur „Modellkalibrierung“ (Model Calibration), bei der das System besser erkennt, was es nicht weiß.
Über die bloße Erkennung hinaus stellten die Forscher fest, dass die Methode auch als Trainingssignal dienen könnte. Durch die Verstärkung der selbstbewusst richtigen Antworten des LLM – und das Bestrafen selbstbewusster Fehler – können Entwickler Modelle so feinabstimmen, dass sie im Laufe der Zeit genauer und zuverlässiger werden. Darüber hinaus entdeckte das MIT-Team, dass ihre Methode oft weniger Abfragen erforderte, um zu einer sicheren Bewertung zu gelangen als herkömmliche Selbstkonsistenz-Prüfungen, was potenziell einen energieeffizienteren Weg zur KI-Zuverlässigkeit bietet.
Obwohl die Ergebnisse vielversprechend sind, räumen die Forscher ein, dass die Wirksamkeit der TU-Metrik nicht in allen Bereichen einheitlich ist. Derzeit ist der Ansatz am effektivsten für Aufgaben, die eine eindeutige, objektive korrekte Antwort haben, wie faktische Abfragen oder standardisierte mathematische Probleme. Im Gegensatz dazu bleibt die Leistung bei offenem kreativem Schreiben oder hochabstrakten Aufgaben ein Bereich für weitere Verfeinerungen.
Das Team, dem Forscher des MIT-IBM Watson AI Lab angehören, plant, die Fähigkeiten der Metrik weiter auszubauen. Zukünftige Iterationen zielen darauf ab, die Leistung bei offenen Abfragen zu verbessern und zusätzliche Formen der Unsicherheitsquantifizierung zu untersuchen. Während sich die Branche in Richtung autonomerer KI-Agenten bewegt, wird die Fähigkeit, die Grenzen des Wissens einer KI genau einzuschätzen – und diese Unsicherheit den Nutzern zu kommunizieren – der Grundstein für ein sichereres, transparenteres technologisches Ökosystem sein.