AI News

The Illusion of Invincibility: Major AI Defenses Crumble Under Adaptive Stress

In a revelation that has sent shockwaves through the artificial intelligence(artificial intelligence) security community, a coalition of researchers from OpenAI, Anthropic, and Google DeepMind has exposed critical vulnerabilities in the industry's most trusted defense systems. The groundbreaking study, released this week, demonstrates that 12 widely published AI defense mechanisms—previously touted as having near-zero failure rates—can be bypassed with a success rate exceeding 90% when subjected to "adaptive attacks(adaptive attacks)".

This finding shatters the prevailing assumption that current large language model(大規模言語モデル(LLM)) guardrails are sufficient to withstand determined adversarial actors. As AI agents become increasingly integrated into enterprise infrastructure and critical decision-making workflows, the exposure of such systemic weaknesses highlights a dangerous gap between perceived safety and actual robustness.

The "Attacker Moves Second" Principle

The core of the researchers' critique lies in a fundamental flaw in how AI defenses have historically been evaluated. Traditional security benchmarks typically operate on a static basis: a defense is proposed, and it is tested against a pre-existing library of known attacks. If the defense blocks these known threats, it is deemed secure.

However, the new research posits that this methodology is dangerously naive. It assumes the "attacker moves first" and remains static. In real-world scenarios, sophisticated adversaries operate under an "attacker moves second" paradigm. They analyze the specific defense mechanism in place and optimize their attack strategy to circumvent it.

By applying this adaptive methodology—using techniques ranging from gradient-based optimization to human-guided reinforcement learning(強化学習(Reinforcement Learning、RL))—the researchers were able to dismantle defenses that had previously reported nearly flawless performance. The study reveals that what was once considered "robustness" was merely "obscurity," effective only until an attacker bothered to look closely.

Methodology: How the Defenses Crumbled

The research team employed a multi-faceted approach to probe the 12 target defenses, which included a diverse array of techniques such as perplexity filtering(perplexity filtering), input transformation, and auxiliary LLM monitoring.

The adaptive attack framework utilized four primary vectors:

  1. Gradient-Based Optimization: leveraging access to model weights (where available) to mathematically compute the precise input required to trigger a restricted output.
  2. Reinforcement Learning (RL): Training adversarial models to automatically discover prompt structures that bypass filters.
  3. Random Search & Fuzzing: High-volume, automated mutation of inputs to find "blind spots" in the defense logic.
  4. Human Red-Teaming: Expert security researchers manually crafting prompts based on an understanding of the defense's architectural limitations.

The results were uniform and startling. Defenses that relied on "secret" mechanisms or static keywords were bypassed almost instantly. More complex defenses, while resilient to naive attacks, collapsed when the attack optimization was tailored to their specific detection logic.

Breakdown of Vulnerabilities

The disparity between the claimed efficacy of these defenses and their actual performance under adaptive stress is stark. The following table summarizes the performance gap identified by the researchers across different categories of defense mechanisms.

**Defense Category Original Claimed Failure Rate Adaptive Attack Success Rate**
Perplexity-Based Filtering < 2%
> 94%
Input Transformation/Sanitization < 5%
> 91%
LLM-based Supervisor Models < 1%
> 88%
Token-Level Adversarial Detection < 1%
> 96%
Prompt Structure Analysis < 3%
> 92%

Note: The "Original Claimed Failure Rate" represents the percentage of attacks the defense reportedly failed to stop in initial papers. The "Adaptive Attack Success Rate" represents the percentage of attacks that successfully bypassed the defense in this new study.

The "Adaptive" Paradigm Shift

This research forces a paradigm shift in AI security. It suggests that the current generation of defenses suffers from "overfitting" to specific, known benchmarks. When a defense is tuned to stop a specific dataset of "jailbreak" prompts, it creates a false sense of security.

The researchers argue that true robustness cannot be proven through static testing. Instead, security claims must be validated through rigorous, adversarial pressure testing where the "Red Team"(レッドチーム(Red Team)) is granted full knowledge of the defense implementation(white-box testing). This mirrors established practices in traditional cybersecurity, where "security by obscurity"(security by obscurity) is widely rejected.

One of the most concerning aspects of the findings is the failure of "LLM-based supervisors"—secondary AI models tasked with policing the primary model. The study showed that these supervisors are susceptible to the same adversarial manipulations as the models they are meant to protect, creating a recursive vulnerability loop.

Industry Implications: A Call for Rigorous Red Teaming

For enterprise decision-makers and AI developers, this report serves as an urgent call to action. The reliance on off-the-shelf defense wrappers or published academic techniques without internal stress testing is no longer a viable security strategy.

Key takeaways for the industry include:

  • Abandon Static Benchmarks: Security evaluations must evolve beyond "pass/fail" on static datasets。 Continuous, adaptive red-teaming is essential。
  • Invest in Human-in-the-Loop Testing: Automated defenses were consistently outperformed by human-guided attacks, suggesting that human intuition remains a critical component of security validation。
  • Defense-in-Depth: No single layer of defense is impenetrable。 Systems must be designed with the assumption that the outer guardrails will be breached, necessitating internal monitoring and containment protocols。

The involvement of researchers from OpenAI, Anthropic, and Google DeepMind in this exposure signals a maturity in the sector. By acknowledging the fragility of their own ecosystem's defenses, these labs are pivoting towards a more transparent and hardened approach to AI safety.

Conclusion

The revelation that 12 top-tier AI defenses could be dismantled with 90% success rates is a humbling moment for the AI industry. It underscores the infancy of the field's security standards and the sophistication of potential threats。 As we move through 2026, the focus must shift from deploying "perfect" shields to building resilient systems that can withstand the inevitable reality of adaptive, intelligent attacks。 The era of static AI security is over; the era of adaptive defense has begun。

フィーチャー
Video Watermark Remover
AI Video Watermark Remover – Clean Sora 2 & Any Video Watermarks!
ThumbnailCreator.com
AI搭載のツールで、美しくプロフェッショナルなYouTubeサムネイルを素早く簡単に作成できます。
AdsCreator.com
任意のウェブサイト URL から、Meta、Google、Stories 向けのブランドに沿った洗練された広告クリエイティブを即座に生成します。
VoxDeck
視覚革命をリードするAIプレゼンテーションメーカー
BGRemover
SharkFoto BGRemoverでオンラインで簡単に画像の背景を削除できます。
Refly.ai
Refly.AI は、非技術系のクリエイターが自然言語と視覚的キャンバスを使ってワークフローを自動化できるようにするプラットフォームです。
Qoder
Qoderは、ソフトウェアプロジェクトの計画、コーディング、テストを自動化するAI駆動のコーディングアシスタントです。
FineVoice
文字を感情に変える — 数秒で表現力豊かなAIボイスをクローン、デザイン、作成しよう。
Skywork.ai
Skywork AIは、生産性を向上させるための革新的なAIツールです。
Flowith
Flowithは、無料の🍌Nano Banana Proやその他の効果的なモデルを提供するキャンバスベースのエージェント型ワークスペースです...
FixArt AI
FixArt AI はサインアップ不要で、無料かつ制限なしの画像・動画生成用AIツールを提供します。
Elser AI
テキストと画像をアニメ風アート、キャラクター、音声、短編映画に変換するオールインワンのウェブスタジオ。
Pippit
Pippitの強力なAIツールでコンテンツ作成を向上させましょう!
SharkFoto
SharkFoto は、動画、画像、音楽を効率的に作成・編集するためのオールインワンの AI 搭載プラットフォームです。
Funy AI
想像をアニメに!画像やテキストからAIでビキニやキスの動画を生成。AI着せ替え機能も搭載。登録不要、完全無料!
KiloClaw
ホステッドの OpenClaw エージェント:ワンクリックでデプロイ、500以上のモデル、セキュアなインフラ、自動化されたエージェント管理をチームと開発者に提供します。
Diagrimo
Diagrimoはテキストをカスタマイズ可能なAI生成の図表やビジュアルに瞬時に変換します。
SuperMaker AI Video Generator
SuperMakerを使って、驚くべき動画、音楽、画像を簡単に作成できます。
AI Clothes Changer by SharkFoto
SharkFoto の AI Clothes Changer は、フィット感、質感、ライティングまでリアルに再現した服を瞬時にバーチャル試着できます。
Yollo AI
AIパートナーとチャット&創作。画像から動画作成、AI画像生成機能も搭載。
AnimeShorts
最先端のAI技術を使用して、魅力的なアニメ短編を簡単に作成できます。
HappyHorseAIStudio
テキスト、画像、参照素材、動画編集に対応したブラウザベースのAI動画生成ツール。
InstantChapters
Instant Chaptersを使って、魅力的な書籍の章を瞬時に生成します。
NerdyTips
AI 搭載のサッカー予測プラットフォーム。世界中のリーグにわたって、データに基づく試合のヒントを提供します。
WhatsApp AI Sales
WABot は、リアルタイムのスクリプト、翻訳、インテント検出を提供する WhatsApp 向けの AI セールス コパイロットです。
happy horse AI
テキストや画像から同期した動画と音声を生成するオープンソースのAI動画生成ツールです。
AI Video API: Seedance 2.0 Here
1つのキーで最先端の生成モデルをより低コストで提供する統合AI動画APIです。
insmelo AI Music Generator
プロンプト、歌詞、またはアップロードを約1分で洗練されたロイヤリティフリーの曲に変換するAI駆動の音楽ジェネレーターです。
wan 2.7-image
正確な顔、配色、テキスト、ビジュアルの一貫性を制御できるAI画像生成ツールです。
BeatMV
楽曲を映画のようなミュージックビデオに変換し、AIで音楽を作成するウェブベースのAIプラットフォームです。
Kirkify
Kirkify AI はミーム作成者向けに、特徴的なネオングリッチ美学を備えた顔入れ替えのバイラルミームを瞬時に生成します。
UNI-1 AI
UNI-1は視覚的推論と高忠実度の画像合成を組み合わせた統合画像生成モデルです。
Text to Music
テキストや歌詞を、AI生成のボーカル、楽器、マルチトラック書き出しを含むフルのスタジオ品質の楽曲に変換します。
Iara Chat
Iara Chat: AIによる生産性とコミュニケーションのアシスタント。
Wan 2.7
プロ仕様のAIビデオモデル。精密な動作制御とマルチビューの一貫性を実現します。
Tome AI PPT
AI搭載のプレゼン作成ツール。数分でプロフェッショナルなスライドデッキを生成、整形、エクスポートします。
kinovi - Seedance 2.0 - Real Man AI Video
リアルな人物を出力する無料のAI動画ジェネレーター。透かしなし、商用利用権付き。
Lyria3 AI
テキストのプロンプト、歌詞、スタイルから高音質で完全に制作された曲を瞬時に作成するAI音楽ジェネレーター。
Video Sora 2
Sora 2 AIはテキストや画像を数分で短く物理的に正確なソーシャル/eコマース向けビデオに変換します。
Atoms
マルチエージェント自動化によりコード不要で数分でフルスタックのアプリやウェブサイトを構築するAI駆動プラットフォーム。
AI Pet Video Generator
AI駆動のテンプレートと即時HD書き出しを使って、写真からバイラルで共有しやすいペット動画を作成します。SNS向けに最適化されています。
Ampere.SH
無料の管理された OpenClaw ホスティング。$500 の Claude クレジットで 60 秒で AI エージェントをデプロイできます。
Paper Banana
学術テキストを即座に投稿準備が整った方法図や正確な統計図に変換する、AI搭載ツールです。
Hitem3D
Hitem3Dは単一の画像をAIで高解像度かつプロダクション対応の3Dモデルに変換します。
HookTide
あなたの声を学習してコンテンツ作成・エンゲージメント・パフォーマンス分析を行うAI搭載のLinkedIn成長プラットフォームです。
GenPPT.AI
AI駆動のPPT作成ツール。数分でスピーカーノートとグラフ付きのプロフェッショナルなPowerPointプレゼンテーションを作成、整形、エクスポートします。
Create WhatsApp Link
分析機能、ブランドリンク、ルーティング、マルチエージェントチャット機能を備えた無料のWhatsAppリンク&QRジェネレーター。
Palix AI
クリエイター向けのオールインワンAIプラットフォーム。統一されたクレジットで画像、動画、音楽を生成できます。
Gobii
Gobii はチームが 24 時間 365 日稼働する自律型デジタルワーカーを作成し、ウェブ調査やルーティンタスクを自動化できるようにします。
Seedance 20 Video
Seedance 2 は、一貫したキャラクター、マルチショットの物語表現、2K のネイティブ音声を提供するマルチモーダルな AI 動画ジェネレーターです。
Veemo - AI Video Generator
Veemo AIは、テキストや画像から高品質な動画と画像を素早く生成するオールインワンプラットフォームです。
AI FIRST
自然言語を通じてリサーチ、ブラウザ作業、ウェブスクレイピング、ファイル管理を自動化する会話型AIアシスタント。
WhatsApp Warmup Tool
AI 搭載の WhatsApp ウォームアップツールは、大量メッセージ送信を自動化しつつアカウント停止を防ぎます。
GLM Image
GLM Image は自己回帰モデルと拡散モデルを組み合わせたハイブリッド方式で、高忠実度のAI画像を生成し、優れたテキストレンダリングを実現します。
AirMusic
AirMusic.aiは、テキストプロンプトからスタイルやムードのカスタマイズ、ステム(分離トラック)出力をサポートする高品質なAI音楽トラックを生成します。
Manga Translator AI
AI Manga Translatorは漫画画像をオンラインで瞬時に複数の言語に翻訳します。
TextToHuman
AIテキストを瞬時に自然で人間らしい文体に書き直す無料のAI人間化ツール。サインアップ不要。
ainanobanana2
Nano Banana 2 は、正確なテキストレンダリングと被写体の一貫性を保ちながら、4~6秒でプロ品質の4K画像を生成します。
Free AI Video Maker & Generator
無料 AI 動画メーカー&ジェネレーター – 無制限、登録不要
Remy - Newsletter Summarizer
Remyはメールを短くて分かりやすい洞察にまとめることでニュースレター管理を自動化します。
Telegram Group Bot
TGDesk は、リード獲得、エンゲージメント向上、コミュニティの成長を支援するオールインワンの Telegram グループボットです。

研究者がAI防御システムの重大な脆弱性を暴露

OpenAI、Anthropic、Google DeepMindの研究者たちは、公開されている12のAI防御策を90%以上の成功率で回避し、本番システムにおける重大なセキュリティの穴を暴露しました。