
エンタープライズセキュリティの状況は、静かで劇的な変化を遂げています。強力な大規模言語モデル(LLM)がますます小型かつ効率的になるにつれ、高性能なAIを実行するための障壁は事実上消滅しました。現在、開発者やデータサイエンティストは、もはやクラウドベースのAPIや企業が管理するAIサービスに縛られることはありません。その代わりに、彼らは自身の業務を行うために、ローカルでのオンデバイス推論へとますます目を向けています。このイノベーションは、個人にとっては前例のないスピードとデータプライバシーを約束しますが、IT部門やセキュリティ部門にとっては手ごわい課題を生み出しました。それが、**シャドーAI(Shadow AI)**です。
Creati.aiでは、Hugging Faceのようなプラットフォームを通じて配布されるAIモデルの民主化により、従業員が中央集権的な調達や監視をバイパスできるようになっていることを観測しています。この「Bring Your Own Model(BYOM:独自のモデルを持ち込む)」というトレンドは攻撃対象領域の著しい拡大を意味し、リスクの所在をデータセンターから従業員のラップトップへと移行させています。
シャドーAIとは、企業のIT部門やセキュリティ運用チームによる明示的な承認や可視化を経ずに、従業員がAIツール、ソフトウェア、またはモデルを採用・利用することを指します。クラウドベースのSaaSアプリが関与することが多かった従来の「シャドーIT」とは異なり、シャドーAIは完全にローカルデバイス上で動作し、多くの場合ネットワーク監視ツールから切り離されているため、極めて危険です。
ローカル実行への移行は、開発者のいくつかの実際的な、しかしリスクを伴うニーズによって推進されています。
ローカル推論への移行は、データがたどる経路を不明瞭にします。モデルがローカルで実行されると、通常は企業ネットワークに出入りするトラフィックを検査するように設計されている従来のデータ漏洩防止(DLP)ツールは、事実上機能しなくなります。
| リスク領域 | 説明 | セキュリティへの影響 |
|---|---|---|
| データ持ち出し | モデルが独自の内部データセットで学習または微調整される可能性がある。 | ローカルストレージからのデータ漏洩 |
| 脆弱性の継承 | オープンソースモデルに悪意のあるウェイトやバックドアコードが含まれている可能性がある。 | ローカルマシン環境の侵害 |
| ガバナンスの盲点 | IT部門には、どのモデルが展開され、どのような機能を持っているかの可視性が欠如している。 | コンプライアンスやポリシーを強制できない |
| 知的財産 | 開発コードが検証されていないローカルエンジンで処理される。 | 独自のソフトウェアロジックおよびIPの喪失 |
「BYOM」が標準となる環境を保護するには、従来の境界防御から脱却する必要があります。企業は、特定のウェブベースのチャットボットを無効にするような従来のブロックメカニズムでは、モデルそのものがハードドライブにダウンロードされてしまった場合には不十分であることを認識し始めています。
AIワークロードがローカルハードウェアに存在する場合、ほとんどのセキュリティスタックの特徴である「ノース・サウス(境界流入出型)」のトラフィック監視は回避されてしまいます。IT部門は、開発者のマシンで実際に何が動作しているのかを把握するためのインベントリ構築に苦慮しています。
企業はサードパーティのオープンソースリポジトリからダウンロードされたモデルをどのように信頼できるのでしょうか?情報を漏洩させたり、偏った出力を提供したりするように細工されている可能性のある「汚染」されたモデルのリスクは高まっています。モデルのウェイトに対する厳格なスキャンを行わなければ、企業は本質的に、検証されていないサードパーティのバイナリを自社のコアインフラに招き入れていることになります。
APIを介さない場合、企業の使用ポリシーを適用することは指数関数的に困難になります。有害または機密性の高いコンテンツをフィルタリングするためにサーバーサイドのガードレールに依存している企業は、ローカルのオフラインモデルに対してこれらのルールを適用する手段を失ってしまいます。
Creati.aiは、ローカルモデルの実験を完全に禁止しようとすることは無駄な争いであると提言します。その代わりに、可視性を維持しながらイノベーションを促進する「セキュアなサンドボックス」の構築に焦点を移すべきです。
AIの利用を中央集権的に管理する時代は急速に終わりを迎えています。開発者が「オンデバイス」で実行可能なことの限界を押し広げ続ける中で、セキュリティ体制も分散化していく必要があります。シャドーAIは、高速な開発と厳格なセキュリティの間の摩擦の兆候です。単なる禁止ではなく、より良いツールで前者を対処することで、組織はこの分断を克服することができます。
来年に向けた課題は、従業員がローカルモデルを使用するかどうかではなく、企業がこれらのモデルがデータ漏洩やセキュリティ侵害の導管にならないことを保証するために必要な可視性を得られるかどうかです。Creati.aiでAIとセキュリティの交差点を監視し続ける中で、一つだけ明確なことがあります。それは、セキュリティも保護対象であるモデルと同様にアジャイル(俊敏)でなければならないということです。