AI News

Forscher der University of Florida enthüllen „HMNS“-Methode zur Umgehung fortschrittlicher KI-Schutzmechanismen (Guardrails)

In einer bedeutenden Entwicklung für den Bereich der Sicherheit künstlicher Intelligenz (Artificial Intelligence, AI) haben Forscher der University of Florida (UF) eine neuartige Jailbreaking-Technik entwickelt, die in der Lage ist, die Sicherheitsprotokolle führender großer Sprachmodelle (Large Language Models, LLMs) systematisch zu umgehen, einschließlich jener, die von Branchenriesen wie Meta und Microsoft entwickelt wurden. Die Methode mit dem Namen Head-Masked Nullspace Steering (HMNS) stellt einen Paradigmenwechsel bei der Identifizierung von KI-Schwachstellen dar, indem sie über oberflächliches Prompt-Engineering (Prompt Engineering) hinausgeht, um die interne Entscheidungsarchitektur neuronaler Netze zu untersuchen.

Das Forschungsteam unter der Leitung von Professor Sumit Kumar Jha von der Abteilung für Computer- und Informationswissenschaften sowie Ingenieurwesen (Computer & Information Science & Engineering, CISE) hat seine Ergebnisse in einem Papier mit dem Titel „Jailbreaking the Matrix: Nullspace Steering for Controlled Model Subversion“ veröffentlicht. Die Arbeit wurde zur Präsentation auf der 2026 International Conference on Learning Representations (ICLR) angenommen, was ihren Status als erstklassiger Beitrag zur Deep-Learning-Forschung (Deep Learning) bestätigt.

Der Übergang von der Prompt-Injection zur internen Steuerung

Jahrelang beruhte das „Jailbreaking“ eines KI-Modells – also das Überlisten des Modells zur Erzeugung eingeschränkter oder schädlicher Inhalte – stark auf cleveren Wortspielen. Angreifer nutzten „Oma-Exploits“ oder Rollenspielszenarien, um Sicherheitsfilter zu umgehen. Da KI-Anbieter wie OpenAI, Anthropic und Google jedoch ihre Verteidigung gegen diese semantischen Angriffe verstärkt haben, ist die Wirksamkeit herkömmlicher Prompt-Injection (Prompt Injection) gesunken.

Der Ansatz des UF-Teams mit HMNS verzichtet auf die Abhängigkeit von externen linguistischen Tricks zugunsten einer direkten Intervention in den Rechenprozess des Modells. Dem Forschungsbericht zufolge arbeitet HMNS, indem es „unter die Haube“ des LLM schaut. Es identifiziert spezifische Attention-Heads (Aufmerksamkeitsköpfe) – die Komponenten, die für die Verarbeitung von Kontext und Sicherheitsprüfungen verantwortlich sind – und bringt diese effektiv zum Schweigen.

Durch das Ausnullen dieser aktiven Komponenten in der Entscheidungsmatrix des Modells und das „Steuern“ (Steering) der verbleibenden Pfade können die Forscher die KI zwingen, ihr Sicherheitstraining zu ignorieren. Dies ermöglicht es dem Modell, auf Anfragen zu reagieren, die es normalerweise ablehnen würde, wie etwa die Erzeugung von Malware-Code oder die Bereitstellung von Anleitungen für illegale Aktivitäten, ohne die üblichen Verweigerungsmechanismen auszulösen.

Technologische Analyse: Head-Masked Nullspace Steering

Die HMNS-Methode (HMNS method) basiert auf dem Konzept des „Nullraums“ (Nullspace) – ein mathematischer Begriff, der sich auf eine Region bezieht, in der bestimmte Eingaben keine Änderung in der Ausgabe einer spezifischen Funktion (in diesem Fall der Sicherheitsfilter) bewirken. Durch das Steuern der Aktivierungsmuster des Modells in diesen Nullraum relativ zu den Sicherheitsmechanismen macht der Angriff die Schutzmechanismen (Guardrails) für die interne Überwachung des Modells unsichtbar.

Professor Jha beschreibt den Prozess als das Testen der „internen Drähte“ des Systems und nicht nur seiner Benutzeroberfläche. „Man kann so etwas nicht einfach mit Prompts von außen testen und sagen, es sei in Ordnung“, erklärte Jha. „Wir öffnen die Haube, ziehen an den internen Drähten und prüfen, was bricht. So macht man es sicherer. Dafür gibt es keine Abkürzung.“

Die Methodik umfasst drei verschiedene Phasen:

  1. Identifikation: Das System analysiert die Reaktion des LLM auf Benutzer-Prompts, um festzustellen, welche „Heads“ (Aufmerksamkeitsmechanismen) während der Erzeugung einer Verweigerung (z. B. „Ich kann diese Anfrage nicht erfüllen“) am aktivsten sind.
  2. Maskierung: Diese identifizierten sicherheitskritischen Köpfe werden stummgeschaltet oder „maskiert“, indem ihr Beitrag zur Entscheidungsmatrix auf Null gesetzt wird.
  3. Steuerung: Die verbleibenden Komponenten werden subtil angestoßen, um den verbotenen Inhalt zu generieren, wobei der „Nullraum“ genutzt wird, um eine Reaktivierung der Sicherheitsprotokolle zu vermeiden.

Benchmarking-Erfolg gegen Branchenriesen

Um die Wirksamkeit von HMNS zu validieren, nutzte das Forschungsteam den HiPerGator-Supercomputer der UF, um massive Stresstests gegen führende kommerzielle und Open-Source-Modelle durchzuführen. Die Hauptziele umfassten Systeme von Meta und Microsoft, die weithin als Modelle mit einigen der robustesten Sicherheitsausrichtungen (Safety Alignments) in der Branche gelten.

Die Ergebnisse waren eindeutig. HMNS erwies sich als bemerkenswert effektiv und übertraf modernste (State-of-the-art, SOTA) Jailbreaking-Methoden in vier etablierten Branchen-Benchmarks. Die Forscher führten eine Metrik für „rechenbewusste Berichterstattung“ (Compute-aware Reporting) ein, um faire Vergleiche zu gewährleisten, was zeigte, dass HMNS nicht nur höhere Erfolgsquoten erzielte, sondern dies auch effizienter tat als bisherige Methoden.

Vergleich der Jailbreaking-Methoden

Merkmal Traditionelle Prompt-Injection HMNS (Head-Masked Nullspace Steering)
Primärer Angriffsvektor Externe semantische Manipulation (z. B. Rollenspiel) Interne Architekturmanipulation (Gewichts-/Aktivierungssteuerung)
Zielmechanismus Eingabefilter und RLHF-Trainingsmuster Attention-Heads und Entscheidungsmatrizen
Resilienz gegen Patching Niedrig (leicht durch System-Prompt-Updates behebbar) Hoch (erfordert architektonische Eingriffe oder erneutes Training)
Ressourcenbedarf Niedrig (kann von Standardbenutzern durchgeführt werden) Hoch (erfordert Zugriff auf Modellinterna/Gradienten)
Erfolgsmetrik Inkonsistent, oft modellspezifisch Konsistent hoch über mehrere Architekturen hinweg

Die Fähigkeit von HMNS, Verteidigungsschichten in Meta- und Microsoft-Systemen zu umgehen, verdeutlicht eine kritische Lücke in den aktuellen KI-Sicherheitsstandards. Während diese Plattformen ausgefeilte Sicherheitsschichten zur Filterung von Ein- und Ausgaben integrieren, demonstriert HMNS, dass diese Schichten systematisch umgangen werden können, wenn die internen Verarbeitungspfade zugänglich oder replizierbar sind.

Das Team hinter dem Durchbruch

Die Entwicklung von HMNS war eine Gemeinschaftsarbeit akademischer und forschender Institutionen. Neben Professor Sumit Kumar Jha gehören zum Team:

  • Vishal Pramanik: Ein Doktorand am Fachbereich CISE der UF, der maßgeblich an der Entwicklung der Steuerungsalgorithmen beteiligt war.
  • Maisha Maliha: Eine Mitarbeiterin von der University of Oklahoma.
  • Susmit Jha, Ph.D.: Ein Forscher von SRI International.

Das Team nutzte die immense Rechenleistung des HiPerGator-Supercomputers und griff auf dessen NVIDIA A100- und H100-GPU-Cluster zurück, um die komplexen Matrixberechnungen durchzuführen, die für die Identifizierung der Nullraum-Vektoren in Echtzeit erforderlich sind. Diese Rechenkapazität war entscheidend für das „Stresstesten“ der Modelle in einem Ausmaß, das potenzielle Angriffe durch hochentwickelte staatliche Akteure imitiert.

Auswirkungen auf KI-Sicherheit und Governance

Die Veröffentlichung dieser Forschung auf der ICLR 2026 erfolgt zu einem entscheidenden Zeitpunkt. Da KI-Agenten von neuartigen Chat-Schnittstellen zu kritischer Infrastruktur übergehen – etwa bei der Unterstützung der Softwareentwicklung, Finanzanalysen und medizinischen Diagnosen –, sind die Kosten eines Sicherheitsversagens sprunghaft angestiegen.

Die Strategie der „gestaffelten Verteidigung“ (Defense in Depth), die von Cybersicherheitsexperten oft zitiert wird, postuliert, dass mehrere Sicherheitsschichten notwendig sind, um ein System zu schützen. Die Ergebnisse des UF-Teams legen jedoch nahe, dass aktuelle Techniken zur „Ausrichtung“ (Alignment, die Modelle darauf trainieren, schädliche Anfragen abzulehnen) anfällig sein können, wenn die zugrunde liegenden neuronalen Aktivierungen direkt manipuliert werden.

„Indem wir genau zeigen, wie diese Verteidigungen brechen, geben wir KI-Entwicklern die Informationen, die sie benötigen, um Schutzmechanismen zu bauen, die tatsächlich standhalten“, erklärte Jha. „Die öffentliche Freigabe leistungsstarker KI ist nur dann nachhaltig, wenn die Sicherheitsmaßnahmen einer echten Überprüfung standhalten, und im Moment zeigt unsere Arbeit, dass es noch eine Lücke gibt. Wir wollen helfen, diese zu schließen.“

Die Forschung impliziert, dass zukünftige KI-Verteidigungsmechanismen nicht allein auf „Feintuning“ (Fine-tuning) oder „RLHF“ (Reinforcement Learning from Human Feedback) basieren können, um schädliche Ausgaben zu unterdrücken. Stattdessen müssen Entwickler möglicherweise Modelle mit einer intrinsischen Resistenz gegen interne Steuerung entwerfen, potenziell durch die Schaffung „verschränkter“ (entangled) Repräsentationen, bei denen Sicherheitsmerkmale nicht isoliert und maskiert werden können, ohne den allgemeinen Nutzen des Modells zu zerstören.

Branchenreaktion und Zukunftsaussichten

Obwohl Meta und Microsoft keine spezifischen Kommentare zur HMNS-Schwachstelle abgegeben haben, besteht die standardmäßige Branchenreaktion auf solche „Red Teaming“-Ergebnisse darin, die Angriffsvektoren in zukünftige Trainingsläufe zu integrieren. Indem sie diese Schwachstellen in einem kontrollierten akademischen Rahmen aufzeigen, „impfen“ die UF-Forscher effektiv die nächste Generation von Modellen gegen ähnliche Angriffe.

Die Annahme des Papiers für die ICLR 2026 stellt sicher, dass die Methodik von der globalen KI-Forschungsgemeinschaft genau unter die Lupe genommen und wahrscheinlich weiterentwickelt wird. Da das Wettrüsten zwischen KI-Fähigkeiten und KI-Sicherheit weitergeht, dienen Methoden wie Head-Masked Nullspace Steering als Erinnerung daran, dass mit zunehmender Komplexität der Modelle auch die Methoden zu ihrer Sicherung entsprechend anspruchsvoller werden müssen.

Vorerst steht die Arbeit als Zeugnis für die Notwendigkeit offensiver Sicherheitsforschung. Indem das Team der University of Florida die Matrix bricht, trägt es dazu bei, dass die KI-Infrastruktur der Zukunft auf einem Fundament verifizierbarer Sicherheit aufgebaut wird und nicht nur auf der Illusion davon.

Ausgewählt
ThumbnailCreator.com
KI-gestütztes Tool zur schnellen und einfachen Erstellung beeindruckender, professioneller YouTube-Vorschaubilder.
Video Watermark Remover
AI Video Watermark Remover – Clean Sora 2 & Any Video Watermarks!
AirMusic
AirMusic.ai erzeugt hochwertige KI-Musikstücke aus Textvorgaben mit Stil- und Stimmungsanpassung sowie Stem-Export.
AdsCreator.com
Erstellen Sie sofort aus jeder Website‑URL polierte, markenkonforme Werbemotive für Meta, Google und Stories.
VoxDeck
KI-Präsentations-Tool, das die visuelle Revolution anführt
Refly.ai
Refly.AI ermöglicht nicht‑technischen Kreativen, Arbeitsabläufe mit natürlicher Sprache und einer visuellen Leinwand zu automatisieren.
BGRemover
Entfernen Sie ganz einfach Hintergründe von Bildern online mit SharkFoto BGRemover.
FineVoice
Verwandle Text in Emotion — Klone, designe und erstelle ausdrucksstarke KI-Stimmen in Sekundenschnelle.
Qoder
Qoder ist ein KI-gestützter Coding-Assistent, der Planung, Codierung und Tests für Softwareprojekte automatisiert.
Flowith
Flowith ist ein Canvas-basierter agentischer Arbeitsbereich, der kostenloses 🍌Nano Banana Pro und andere effektive Model
Skywork.ai
Skywork AI ist ein innovatives Tool zur Steigerung der Produktivität mit KI.
FixArt AI
FixArt AI bietet kostenlose, uneingeschränkte KI-Tools zur Bild- und Videogenerierung ohne Anmeldung an.
Elser AI
All‑in‑one Web‑Studio, das Text und Bilder in Anime‑Kunst, Charaktere, Stimmen und Kurzfilme verwandelt.
Pippit
Steigern Sie Ihre Inhaltserstellung mit den leistungsstarken KI-Tools von Pippit!
SharkFoto
SharkFoto ist eine leistungsstarke All-in-One KI-Plattform zur effizienten Erstellung und Bearbeitung von Videos, Bildern und Musik.
Funy AI
Erwecke deine Fantasien zum Leben! Erstelle KI-Bikini- & Kuss-Videos aus Bildern/Text. Teste den KI-Kleidungswechsler. K
KiloClaw
Gehosteter OpenClaw-Agent: Ein-Klick-Bereitstellung, über 500 Modelle, sichere Infrastruktur und automatisiertes Agenten-Management für Teams und Entwickler.
Diagrimo
Diagrimo verwandelt Text sofort in anpassbare, KI-generierte Diagramme und Visuals.
SuperMaker AI Video Generator
Erstellen Sie mühelos atemberaubende Videos, Musik und Bilder mit SuperMaker.
AI Clothes Changer by SharkFoto
AI Clothes Changer von SharkFoto ermöglicht es Ihnen, Outfits sofort virtuell anzuprobieren – mit realistischer Passform, Textur und Beleuchtung.
Yollo AI
Chatten & erstellen mit Ihrem KI-Begleiter. Bild-zu-Video & KI-Bildgenerator.
AnimeShorts
Erstellen Sie mühelos atemberaubende Anime-Kurzfilme mit modernster KI-Technologie.
Image to Video AI without Login
Kostenloses Image‑to‑Video‑KI‑Tool, das Fotos sofort in flüssige, hochwertige animierte Videos ohne Wasserzeichen verwandelt.
Anijam AI
Anijam ist eine KI-native Animationsplattform, die Ideen mithilfe agentischer Videoerstellung in ausgefeilte Geschichten verwandelt.
HappyHorseAIStudio
Browserbasierter KI-Videogenerator für Texte, Bilder, Referenzen und Videobearbeitung.
InstantChapters
Erstelle Kapitel für dein Youtube Video mit einem Klick. Keyword optimierte Timestamps verbessern SEO und Engagement.
NerdyTips
Eine KI-gestützte Fußball-Prognoseplattform, die datenbasierte Spieltipps für Ligen weltweit liefert.
WhatsApp AI Sales
WABot ist ein WhatsApp-AI-Vertriebs-Copilot, der Echtzeit-Skripte, Übersetzungen und Intent-Erkennung liefert.
insmelo AI Music Generator
KI-gestützter Musikgenerator, der Eingabeaufforderungen, Songtexte oder Uploads in etwa einer Minute in fertige, lizenzfreie Songs verwandelt.
happy horse AI
Open-Source-KI-Videogenerator, der synchronisiertes Video und Audio aus Text oder Bildern erstellt.
AI Video API: Seedance 2.0 Here
Einheitliche KI-Video-API, die Top-Generationsmodelle über einen einzigen Schlüssel zu geringeren Kosten anbietet.
wan 2.7-image
Ein steuerbarer KI-Bildgenerator für präzise Gesichter, Farbpaletten, Text und visuelle Kontinuität.
BeatMV
Webbasierte KI-Plattform, die Lieder in cineastische Musikvideos verwandelt und mit KI Musik erstellt.
Kirkify
Kirkify AI erstellt sofort virale Face-Swap-Memes mit charakteristischer Neon-Glitch-Ästhetik für Meme-Ersteller.
Text to Music
Verwandeln Sie Text oder Songtexte in vollständige, studio‑taugliche Songs mit KI-generierten Gesangsstimmen, Instrumenten und Multi‑Track‑Exports.
UNI-1 AI
UNI-1 ist ein einheitliches Bildgenerierungsmodell, das visuelle Schlussfolgerungen mit hochqualitativer Bildsynthese kombiniert.
Wan 2.7
Professionelles KI-Videomodell mit präziser Bewegungssteuerung und Multi-View-Konsistenz.
Iara Chat
Iara Chat: Ein KI-gestützter Produktivitäts- und Kommunikationsassistent.
Lyria3 AI
KI-Musikgenerator, der sofort hochwertige, vollständig produzierte Songs aus Textvorgaben, Liedtexten und Stilvorgaben erstellt.
Tome AI PPT
KI-gestützter Präsentations-Generator, der in Minuten professionelle Folien erstellt, verschönert und exportiert.
kinovi - Seedance 2.0 - Real Man AI Video
Kostenloser KI-Video-Generator mit realistisch wirkenden Menschen, ohne Wasserzeichen und mit vollständigen kommerziellen Nutzungsrechten.
Video Sora 2
Sora 2 AI verwandelt Text oder Bilder in kurze, physikalisch korrekte Social- und eCommerce-Videos in wenigen Minuten.
Atoms
KI‑gesteuerte Plattform, die mit Multi‑Agenten‑Automatisierung in Minuten Full‑Stack‑Apps und Websites erstellt — kein Programmieren erforderlich.
AI Pet Video Generator
Erstellen Sie virale, teilbare Haustier‑Videos aus Fotos mithilfe KI‑gestützter Vorlagen und sofortigem HD‑Export für soziale Plattformen.
Ampere.SH
Kostenloses verwaltetes OpenClaw‑Hosting. KI‑Agenten in 60 Sekunden mit $500 Claude‑Guthaben bereitstellen.
Paper Banana
KI-gestütztes Tool, das akademischen Text sofort in veröffentlichungsreife methodische Diagramme und präzise statistische Plots umwandelt.
Hitem3D
Hitem3D wandelt ein einzelnes Bild mithilfe von KI in hochauflösende, produktionsbereite 3D-Modelle um.
HookTide
KI‑gestützte LinkedIn‑Wachstumsplattform, die deine Stimme lernt, um Inhalte zu erstellen, Interaktionen zu fördern und die Leistung zu analysieren.
GenPPT.AI
KI‑gestützter PPT‑Ersteller, der in Minuten professionelle PowerPoint‑Präsentationen mit Sprecherhinweisen und Diagrammen erstellt, verschönert und exportiert.
Create WhatsApp Link
Kostenloser WhatsApp-Link- und QR‑Generator mit Analytics, gebrandeten Links, Routing und Multi‑Agent‑Chat‑Funktionen.
Palix AI
All‑in‑one AI‑Plattform für Creator, um mit einheitlichen Credits Bilder, Videos und Musik zu erzeugen.
Gobii
Gobii ermöglicht Teams, rund um die Uhr autonome digitale Arbeitskräfte zu erstellen, um Webrecherche und Routineaufgaben zu automatisieren.
Seedance 20 Video
Seedance 2 ist ein multimodaler KI-Video-Generator, der konsistente Charaktere, mehrszenige Erzählungen und nativen Ton in 2K liefert.
Veemo - AI Video Generator
Veemo AI ist eine All‑in‑One‑Plattform, die schnell hochwertige Videos und Bilder aus Text oder Bildern generiert.
AI FIRST
Konversationeller KI‑Assistent, der Forschung, Browseraufgaben, Web‑Scraping und Dateiverwaltung mittels natürlicher Sprache automatisiert.
WhatsApp Warmup Tool
Ein KI-gestütztes WhatsApp-Warmup-Tool automatisiert Massenversand und verhindert Kontosperrungen.
GLM Image
GLM Image kombiniert hybride autoregressive und Diffusionsmodelle, um hochauflösende KI-Bilder mit außergewöhnlicher Textrendering-Qualität zu erzeugen.
Manga Translator AI
AI Manga Translator übersetzt Manga-Bilder sofort online in mehrere Sprachen.
TextToHuman
Kostenloser AI-Humanizer, der AI-Text sofort in natürliches, menschlich wirkendes Schreiben umschreibt. Keine Anmeldung erforderlich.
Remy - Newsletter Summarizer
Remy automatisiert das Newsletter-Management, indem E-Mails in leicht verständliche Erkenntnisse zusammengefasst werden.
ainanobanana2
Nano Banana 2 erzeugt in 4–6 Sekunden Pro‑Qualität 4K‑Bilder mit präziser Textrendering und Konsistenz der Motive.
Free AI Video Maker & Generator
Kostenloser KI-Videoersteller & Generator – Unbegrenzt, keine Anmeldung erforderlich

Forscher der University of Florida entwickeln Jailbreak-Methode für KI zur Stärkung der Sicherheit

Wissenschaftler der UF entwickelten die HMNS-Methode, um KI-Sicherheitsmaßnahmen zu testen, und umgingen erfolgreich Systeme von Meta und Microsoft, um Sicherheitslücken zu identifizieren.