
今週、米国における人工知能(Artificial Intelligence)ガバナンスの情勢が決定的に変化した。ニューヨークがフロンティアモデル規制の場に本格的に参入したためである。責任あるAIの安全性と教育(RAISE)法(Responsible AI Safety and Education (RAISE) Act)の制定により、ニューヨークはカリフォルニア州に続き、世界で最も高度なAIシステムに対する厳格な州レベルの安全性枠組みを確立した。この動きは、停滞する連邦政府の規制プロセスの空白を埋める、国内最大の2つのテック経済圏によって推進される事実上の国家標準の出現を予感させる。
AI業界にとって、メッセージは明確である。フロンティアモデルに対する自主的な自主規制の時代は終焉を迎えつつある。開発者が、昨年末に署名されたカリフォルニア州の上院法案53(SB 53)の影響に対処する中で、ニューヨークのRAISE法(RAISE Act)は、2つ目の、そしてわずかに異なるレイヤーのコンプライアンス義務を追加する。キャシー・ホークル(Kathy Hochul)知事は両州間の「整合性(alignment)」を強調しているが、ニューヨークの法律における細かなニュアンスは、主要なAIラボに多大な戦略的調整を強いる複雑なコンプライアンス環境を生み出している。
RAISE法(S6953B/A6453B)は、10の26乗($10^{26}$)の浮動小数点演算(FLOPs)という計算閾値によって定義される「フロンティアモデル」に明確に焦点を当てている。この高い基準は、現在、GPT-4の後継モデル、Claude 3、Gemini Ultraなど、業界の巨人によって開発された最も強力なシステムのみを対象としている。この特定の技術階層をターゲットにすることで、ニューヨーク州は、より広範で低リスクなAIエコシステムにおけるイノベーションを阻害することなく、サイバー攻撃や生物兵器製造をAIが支援する可能性といった壊滅的なリスクを軽減することを目指している。
新法の下で、対象となるモデルの開発者は、厳格な安全性および透明性プロトコルを遵守しなければならない。この法律は、これらの企業に対し、モデルが重大な害を引き起こすのを防ぐために「合理的な注意(reasonable care)」を払うことを義務付けている。これには、厳格な導入前テスト、モデルの盗難を防ぐためのサイバーセキュリティ保護策の実施、およびモデルが危険な挙動を示した場合に即座に停止できる能力(しばしば「キルスイッチ(kill switch)」要件と呼ばれる規定)が含まれる。
重要な点として、RAISE法はニューヨーク州金融サービス局(DFS)内に専任の監視オフィスを設置する。このオフィスは、フロンティアモデル開発者を登録し、年次のコンプライアンス認証を審査し、法律の広範な安全性義務を解釈する規則を発行する権限を与えられている。金融セクターにおける積極的な法執行で知られる規制当局であるDFSが選ばれたことは、ニューヨーク州がAIの安全性に対して積極的な「取り締まり」アプローチを取る意図があることを示唆している。
RAISE法は、混乱を招く規制のパッチワークを防ぐためにカリフォルニア州のSB 53を念頭に置いて起草されたが、「整合性」が「同一」を意味するわけではない。両法は同じ計算閾値($10^{26}$ FLOPs)と「透明性と準備態勢」という核心的な哲学を共有しているが、執行メカニズムと具体的な報告スケジュールにおいて異なっている。これらの相違点こそが、主要なAIラボの法務チームが最も摩擦に直面するであろう部分である。
以下の表は、2つの州の枠組みにおける決定的な違いをまとめたものである:
| 機能 | ニューヨーク州(RAISE法) | カリフォルニア州(SB 53) |
|---|---|---|
| 対象範囲 | フロンティアモデル(> $10^{26}$ FLOPs) | フロンティアモデル(> $10^{26}$ FLOPs) |
| インシデント報告の猶予期間 | 判断から72時間以内 | 15日(通常)、24時間(差し迫った脅威) |
| 主な監視機関 | 金融サービス局(DFS) | 司法長官および政府運用庁 |
| 執行メカニズム | 司法長官による民事訴訟、DFSの行政規則 | 司法長官による民事訴訟 |
| 民事罰 | 最大100万ドル(初回)、300万ドル(それ以降) | 1違反につき最大100万ドル(上限あり) |
| 私的訴権 | なし | なし |
運用上の最も大きな違いは、インシデント報告のタイムラインにある。ニューヨーク州が開発者に対し「重大な安全インシデント」を72時間以内に報告するよう求めているのは、カリフォルニア州の標準的な15日間の猶予期間よりもかなり攻撃的である。この短縮されたタイムラインは、AI企業に対し、異常を検知するだけでなく、ほぼリアルタイムで法的に評価し報告できる、成熟した24時間365日のインシデント対応能力を備えることを要求している。
さらに、ニューヨーク州DFSの関与は、テクノロジー分野に新たな規制当局を導入することになる。法執行を主に司法長官に頼るカリフォルニア州とは異なり、ニューヨーク州は、安全テストがどのように行われるべきかについて詳細な規則を公布できる行政構造を構築した。これにより、あるモデルがカリフォルニア州の透明性要件は満たしていても、DFSが「合理的な注意」についてより規範的な解釈を採用した場合、ニューヨーク州独自の安全性プロトコルで不合格となるような「二重軌道」のコンプライアンス体制が生じる可能性が高まっている。
業界アナリストは、「重大な害」の定義は調和されているものの、手続き上の相違が「最高共通分母(highest common denominator)」効果を生み出すと指摘している。安全を期すため、開発者はニューヨーク州のより厳格な72時間報告基準とカリフォルニア州のより広範な透明性文書をデフォルトとして採用し、事実上、両法の最も厳しい側面を単一の内部コンプライアンス・プロトコルに統合することになるだろう。
RAISE法の制定は、連邦レベルで大きな不確実性が生じている時期に行われた。現政権が、より規制緩和を重視したアジェンダを追求するために以前のAI安全性に関する大統領令を縮小させている中で、州がその空白を埋めるために立ち上がった。この現象は、厳格な規制管轄区域がより広い市場の基準を定義する「ブリュッセル効果(Brussels Effect)」を反映している。今回のケースでは、サクラメント(カリフォルニア州都)とオールバニ(ニューヨーク州都)が事実上、AI安全性のための国家的なルールブックを執筆している「バイコースタル効果(bi-coastal effect)」といえる。
法務専門家は、この州主導のアプローチは必要なガードレールを提供する一方で、コロラド、テキサス、マサチューセッツといった他の州が異なる閾値や定義で独自のフロンティアモデル法を制定した場合、断片化のリスクがあると警告している。しかし、米国のAI業界の大部分が拠点を置くニューヨーク州とカリフォルニア州の経済的影響力を考えれば、両州を組み合わせた枠組みが、予見可能な将来における事実上の国家標準になる可能性が高い。
AI業界にとって、2027年の施行日に向けたカウントダウンが始まった。フロンティアモデルの開発企業の最高技術責任者(CTO)や法務担当責任者(General Counsel)にとっての当面の優先事項は、現在の内部安全性慣行とRAISE法およびSB 53の法定要件との間の「ギャップ分析」を実施することである。
2026年に向けた戦略的優先事項は以下の通り:
2026年が進むにつれ、RAISE法の施行は、州レベルの規制が人工知能のような流動的でグローバルな技術を効果的に統治できるかどうかの重要なテストケースとなるだろう。現時点で、ニューヨーク州はその旗を掲げ、AGIへの道はシリコンバレーと同様にオールバニをも通るものであることを確実にした。