
ワシントンD.C. — アメリカのヘルスケアの未来を決定づける動きとして、全米医学アカデミー(NAM)は2026年3月4日、「AI時代の患者安全(Patient Safety in the Era of AI)」イニシアチブを正式に開始した。この包括的な国家プログラムは、臨床現場での人工知能(AI)導入に対する厳格なガードレールを確立しながら、その変革的な可能性を活用して患者への危害を最小限に抑えることを目指している。
このイニシアチブは、ヘルスケアの質に対するNAMの長年の取り組みの重要な進化を象徴しており、画期的な2000年の報告書『人は誰でも間違える(To Err Is Human)』の遺産を直接引き継いでいる。その報告書は初めて患者の安全を国家的な優先事項へと高めたが、生成AI(Generative AI)、予測分析、自動意思決定の急速な統合が支配的な現在の状況では、根本的に新しい戦略的アプローチが必要とされている。
2026年3月3日、この取り組みを開始するために、ハイレベルな運営グループがワシントンD.C.に集結した。このグループには、病院幹部、患者擁護者、テクノロジーリーダー、政策専門家といった多様な連合が集まった。彼らの使命は明確かつ野心的である。AIを単なる効率化のツールとしてではなく、米国のヘルスケアにおける「ゼロ・ハーム(危害ゼロ)」の格差を埋めるための主要なメカニズムとして活用する国家戦略を策定することだ。
20年以上にわたり、ヘルスケア業界は予防可能な医療ミスの根絶に苦闘してきた。NAMの新しいイニシアチブは、AIがそのようなミスを引き起こす認知的およびシステム的な限界を克服するための、最初の実行可能な技術的解決策を提供するという前提に基づいている。リスクが現実化する前に膨大なデータセットを分析して予測することで、AIシステムは理論上、臨床医にとって非常に効果的なセーフティネットとして機能する可能性がある。
しかし、これらの技術の統合には、アルゴリズムのバイアス、透明性の欠如、生成モデルにおける「ハルシネーション(Hallucinations)」の可能性など、独自のリスクも伴う。このイニシアチブはこれらの要因のバランスを取り、ヘルスケアAIの採用が安全性の追求においては積極的であり、リスク管理においては保守的であることを確実にしようとしている。
Gianrico Farrugia医学博士(メイヨー・クリニック(Mayo Clinic)会長兼CEO、運営グループ共同議長)は、開始にあたりこの瞬間の重要性を強調した。「今日は、より安全なケアを目指す私たちの国家的な歩みにおける極めて重要な瞬間です」とFarrugia氏は述べた。「新興のAIツールは患者の安全性の向上を著しく促進し、それを大規模に実現できると確信していますが、その約束を果たすには、意図的な分野横断的コラボレーションと思慮深い戦略が必要です。」
このイニシアチブは、AI導入の多面的な性質に対応するように構成されている。単に静的な報告書を作成するだけでなく、戦略的領域のドラフト作成、一般からのフィードバックの募集、政策提言の繰り返しというダイナミックなプロセスに関与する。リーダーシップチームはこのクロスセクター(分野横断的)なアプローチを反映しており、患者の声が技術者や病院管理者の声と同等の重みを持つことを保証している。
運営グループは、ヘルスケア・エコシステムの重要な柱である臨床提供、患者擁護、システム管理を代表する3人の共同議長によって支えられている。
表1:運営グループのリーダーシップと重点分野
| リーダー | 役割 | 組織 | 主な戦略的焦点 |
|---|---|---|---|
| Gianrico Farrugia, M.D. | 共同議長 | メイヨー・クリニック | 複雑な医療システム全体における 臨床統合とAI安全ツールのスケーリング |
| Sue Sheridan | 共同議長 | Patients for Patient Safety US | AIによる情報の民主化と 患者の自律性の強化の確保 |
| Wright Lassiter | 共同議長 | CommonSpirit Health | 公平性の格差への対処と 多様なケア環境におけるAIの運用化 |
Wright Lassiter(CommonSpirit Health会長兼CEO)は、AIの採用を選択ではなく倫理的責務として位置づけた。「患者の安全はヘルスケアAIの理想的なユースケースです」とLassiter氏は指摘した。「それらを採用しないことは、すでに解決方法がわかっている既存の安全性と公平性の格差を広げるリスクを伴います。」
NAMはこのイニシアチブに向けた多段階のロードマップを概説している。当初、運営グループは患者安全戦略の「ドラフトドメイン」を策定する。これらのドメインは、アルゴリズムのガバナンス、労働力トレーニング、データの透明性、責任の枠組みといった分野をカバーする可能性が高い。
ドラフト作成フェーズに続いて、イニシアチブはパブリックコメント期間を設ける。この透明性は、AIアルゴリズムの不透明な性質(ブラックボックス)によっていくらか損なわれてきた信頼を構築するために設計されている。最終的な成果物は、医療システムにAIツールの調達、導入、監視のための実効性のあるガイドラインを提供する、一貫した国家的な戦略的アプローチとなる。
このイニシアチブは、強固な出資者連合によって支援されており、特定の企業の利益から独立して運営できるリソースを確保している。資金提供パートナーには、エレバンス・ヘルス財団(Elevance Health Foundation)、医療器具振興協会(AAMI)、カリフォルニア・ヘルスケア財団、Premier, Inc.が含まれる。
NAMの戦略的活動と並行して、エレバンス・ヘルス財団は「患者安全賞(Patient Safety Prize)」を開始した。このコンテストは、革新者に対し、脆弱な立場にある人々の安全性を向上させることができる変革的なAIソリューションの提出を求めており、NAMの政策活動を補完する市場主導のソリューションに対する即時のインセンティブを生み出している。
NAMのイニシアチブは、人工知能に関する立法活動が活発な時期に登場した。2026年初頭の法律アナリストの報告によると、全米の州議会では記録的な数のAIに焦点を当てた法案が提出されている。国際プライバシー実務者協会(IAPP)は2026年3月の分析で、州の立法担当者が広範な一括規制から、特定の分野に絞った法律へと移行しつつあると指摘した。
州のAI立法における主要なトレンド(2026年セッション):
この断片化された立法環境は、NAMによる国家的なイニシアチブの必要性を強調している。州は悪質な行為者を罰したり開示を命じたりすることはできるが、何が「安全な」臨床AIを構成するかを定義するための医学的専門知識が不足している。NAMは、将来の立法に情報を提供し、バラバラな州レベルの規則を患者の安全のための一貫した枠組みへと調和させる臨床基準を確立することで、この空白を埋めることを目指している。
ローンチの中心的テーマは、ヘルスケアにおける人間的要素の維持であった。Patients for Patient Safety USの共同議長兼CEOであるSue Sheridan氏は、AIは技術的な用語で語られがちだが、その最終的な価値は患者のエンパワーメントにあると強調した。
「人工知能はすでにケアの提供を再構築し、診断を改善していますが、情報を民主化し、患者を力づけ、患者の自律性を活用してもいます」とSheridan氏は説明した。彼女のコメントは、AIが臨床医に取って代わるのではなく、管理業務の負担を取り除き、ヒューマンエラーの可能性を減らすことで、患者と提供者の関係を強化すべきであるという共通認識の高まりを反映している。
このイニシアチブは「信頼の格差」への対処も計画している。AIシステムがより自律的になり、即時の人間の監視なしに状態を診断したり治療を推奨したりする可能性がある中で、患者はこれらのシステムが自分たちの最善の利益のために行動していることを確信できなければならない。NAMの戦略には、重要な医療決定が常に人間による説明責任を保持することを保証する「ヒューマン・イン・ザ・ループ(Human-in-the-loop)」検証のプロトコルが含まれる可能性が高い。
「AI時代の患者安全」イニシアチブが進むにつれ、大きな課題に直面することになる。現在のAI開発のスピードは科学的合意の速さを上回っている。今日リリースされたツールが6ヶ月後には時代遅れになる可能性があり、永続的な安全基準の作成を困難にしている。
しかし、ワシントンに集まった参加者の間での一致した意見は、待つという選択肢はないということだった。AIはすでに病院のバックオフィスや画像診断センターで導入されており、ヘルスケアシステムはすでに「AI時代」に突入している。NAMのイニシアチブは、この時代が予期せぬアルゴリズムの危害によってではなく、医療ミスの歴史的な削減によって定義されることを確実にするための試みである。
運営グループは2026年を通じて活動を継続し、今後数ヶ月の間に一般向けの最新情報や参加の機会が提供される予定である。テック業界、ヘルスケア提供者、そして患者にとって、このイニシアチブの結果は、デジタルヘルスの次の10年のルールを決定づけるものとなるだろう。
AI開発者やヘルスケア技術企業にとって、NAMのローンチはより厳格な検証要件へのシフトを意味している。「迅速に動き、破壊する(Move fast and break things)」時代は、臨床医学とは相容れない。企業は、主要なヘルスケアシステムからの将来の調達ガイドラインが、このイニシアチブから生まれる基準と整合することを予想すべきである。
ヘルスケアAI開発者のための実行可能な要点:
このイニシアチブの開始は、2026年がヘルスケアAIが目新しさから、規制された重要なインフラへと移行する年であることを裏付けている。全米医学アカデミーは、急速にデジタル化が進む世界において、患者の安全が常に「北極星」であり続けなければならないという姿勢を鮮明にした。