
現在進行中の人工知能(AI)軍拡競争が大幅に激化する中、Anthropicは、中国の著名な3つのAI研究所(DeepSeek、Moonshot AI、MiniMax)が、同社のClaudeモデルから能力を抽出するための組織的かつ産業規模のキャンペーンを行っていると公に非難しました。月曜日に発表された新しいセキュリティレポートで詳述されたこの主張は、これらの組織がいかに数千の不正アカウントを利用して、Claudeの高度な推論(Reasoning)およびコーディング(Coding)能力を自社の独自モデルに「蒸留(Distillation)」したとされるかを概説しています。
この暴露は、ワシントンで半導体輸出規制(Semiconductor export controls)の実効性に関する議論が深まる中、世界のAI業界にとって重要な局面でもたらされました。米国の政策立案者が中国による最先端ハードウェアへのアクセス制限に苦慮する中、Anthropicの調査結果は、モデル蒸留を通じた知的財産の窃盗(Intellectual property theft)が、競合他社がハードウェアの制約を回避し、能力の差を縮めるための主要な手段となっていることを示唆しています。
Anthropicの調査によると、この組織的な試みには、約24,000の不正アカウントからなる巧妙なネットワークを通じて、Claudeモデルとの1,600万回以上のやり取りが行われていました。これらのアカウントは、出所を隠蔽するために商用のプロキシサービスを通じて管理されていたとされ、Claudeに対して体系的にクエリを送り、その出力を記録して、より小規模な国内モデルをトレーニングするために使用されました。このプロセスは、機械学習において「蒸留(Distillation)」として知られています。
蒸留は、開発者が自社の巨大なモデルをより効率的なバージョンに圧縮するために使用する正当な手法ですが、許可なく競合他社のモデルからデータを抽出することは利用規約に違反し、知的財産の窃盗にあたります。Anthropicのデータは、この作戦が単なる一時的な実験ではなく、価値の高い認知的振る舞いを高度に組織化して抽出したものだったことを示しています。
攻撃の規模は被告発機関によって大きく異なりますが、MiniMaxが最も積極的な加害者であったようです。以下の内訳は、申し立てられた活動の範囲を示しています。
表:研究所別の申し立てられた蒸留活動の内訳
| 研究所名 | 推定やり取り回数 | 主要なターゲット能力 |
|---|---|---|
| MiniMax | 約1300万回 | エージェント型コーディング、ツールのオーケストレーション、複雑な推論シーケンス |
| Moonshot AI | 約340万回 | エージェント型推論、データ分析、コンピュータビジョンタスク |
| DeepSeek | 15万回超 | 基礎ロジック、アライメントプロトコル、ポリシーに敏感なクエリ |
Anthropicによって記述された手法は、大規模言語モデル(Large Language Model:LLM)のトレーニングパイプラインに対する洗練された理解を明らかにしています。攻撃者は単にランダムな質問をしたわけではなく、ゼロから複製するには困難でコストがかかる特定の「教師(Teacher)」の振る舞いをターゲットにしていました。
最大の加害者として特定されたMiniMaxは、新しいモデルのリリースから24時間以内に、自社のトラフィックのほぼ半分をClaudeにリダイレクトしていたと報告されており、Anthropicのインフラを利用して自社システムの能力を急成長させていたことになります。ユーザーのプロンプトをClaudeに入力し、その高品質な回答を自社モデルのトレーニングに使用することで、これらの研究所は計算リソースをわずかしか費やすことなく、理論的には米国の最先端モデルとほぼ同等の性能を達成できる可能性があります。
レポートで特定された主な戦術は以下の通りです:
知的財産の窃盗という商業的な影響を超えて、Anthropicは重大な安全上の懸念、すなわち安全ガードレールの除去を強調しました。Claudeのような米国のフロンティアモデルは、生物兵器の作成、サイバー攻撃、あるいは世論操作キャンペーンへの加担を防ぐために、厳格な「憲法的AI(Constitutional AI)」トレーニングを受けています。
モデルが不正に蒸留されると、「学生」モデルは「教師」の能力を学習しますが、その安全抑制までは継承しないことがよくあります。Anthropicは、これらの「解き放たれた」クローンが独自の拡散リスクをもたらすと警告しています。蒸留されたモデルがClaudeのコーディング能力を維持しつつ、マルウェア生成に対する拒否メカニズムを欠いている場合、悪意のあるアクターにとって強力な武器となります。
「不正に蒸留されたモデルは必要なセーフガードを欠いており、重大な国家安全保障上のリスクを生じさせます」と、Anthropicは『蒸留攻撃(Distillation Attacks)の検出と防止』と題された研究論文の中で述べています。同社は、外国勢力に米国のAI能力を複製させることは、米国政府が業界に採用を促してきた安全プロトコルそのものを損なうものであると主張しています。
告発と同時に、Anthropicは蒸留の試みをリアルタイムで特定しブロックするために設計された新しい防御メカニズムの詳細を公開しました。この防御の核心は、API使用の統計的パターンを分析する技術である「行動フィンガープリント(behavioral fingerprinting)」です。
有機的で多様な対話パターンを示す正当なユーザーとは異なり、蒸留スクリプトはしばしば微細な統計的シグネチャを残します。これらには以下が含まれます:
Anthropicは、モデルマイニングに対する業界全体の防御網を構築するため、これらの技術的指標を他の主要な米国のAI研究所(OpenAIやGoogle DeepMindなど)、クラウドプロバイダー、および政府当局と共有していることを発表しました。
この事件は、複雑な米中技術関係に波紋を投じています。米国商務省が、NVIDIAのH100や新しいBlackwellシリーズなどの高度なGPUの中国企業への販売を禁止する輸出規制の有効性を現在検証している最中であり、タイミングは特に微妙です。
現在の輸出禁止措置の批判者は、中国の研究所が米国のモデルの知能をコピーすることでハードウェアの不足を「賢く回避」できるのであれば、それらの措置は不十分であると主張しています。Claudeを蒸留することで10%の計算能力で競争力のあるモデルをトレーニングできるのであれば、中国のAI進歩を遅らせることを目的とした「計算の壁」は著しく脆弱になります。
政策への影響:
Anthropicによる告発は、AI分野における理論的なリスクから文書化された紛争への移行を象徴しています。モデルがより価値を持つようになるにつれ、それらはもはや単なる製品ではなく、戦略的な国家資産となります。この「蒸留による強奪」は、デジタル時代においては、能力を構築するのと同様に簡単に盗むことができるという厳しい教訓を与えています。業界にとって、焦点は単に賢いモデルを構築することから、盗まれにくいモデルを構築することへと移らなければなりません。米国のイノベーションの成果が、追い越すべき競合他社を意図せず助長することのないようにするためです。