
在挑戰傳統醫療監管界限的一項舉措中,猶他州啟動了一項開創性試點計畫,允許人工智慧(artificial intelligence,縮寫 AI)自動續配處方,無需醫師直接監督。此計畫於 2026 年 1 月啟動,透過與健康科技新創公司 Doctronic 的合作推動,代表首個由州政府核准、授權 AI 系統在藥物管理臨床決策上行使權限的嘗試。支持者稱此舉為解決醫療人員倦怠與醫療可近性問題所需的演進;然而,該計畫也引發了有關安全性、責任歸屬與食品藥物管理局(FDA)監督權限的複雜辯論。
該試點在猶他州人工智慧政策辦公室(Office of Artificial Intelligence Policy,OAIP)的監督下運作,採用「監管沙盒(regulatory sandbox)」框架,旨在透過暫時豁免特定州級法規來促進創新。這一法律手段讓 Doctronic 在一個「安全區」內運作,對公眾測試其自動續配系統,而監管單位則同時監控結果。隨著計畫進入第二個月,它成為將生成式 AI(generative AI)整合進高風險醫療流程的一個關鍵個案研究,迫使快速的州級放寬管制與聯邦安全規範發生正面衝突。
該計畫的核心是一套由 Doctronic 開發的專用 AI 系統,該系統獲授權管理約 200 種用於治療慢性病的常見藥物續配。為了降低即時風險,試點的範圍被嚴格劃定;AI 明確禁限處理受管制藥物,例如類鴉片藥物或 ADHD 用藥,且不處理注射劑請求。相反地,它專注於高量、低風險的維持性藥物,這些藥物的臨床決策過程多屬規則性且重複性高。
病患的體驗與傳統的遠距醫療訪視有明顯差異。合資格的猶他州居民無需預約與真人醫師進行視訊諮詢,只需登入 Doctronic 平台、驗證身分,並確認其實際位於該州內。AI 隨後進行臨床訪談,詢問病患自上次開藥以來是否出現副作用、用藥遵從情形,以及任何新的醫療診斷。
系統使用由大型語言模型(large language models)強化的決策樹,將病患回應與臨床指南進行比對。
Doctronic 的共同創辦人 Dr. Adam Oskowitz 與 Matt Pavelle 主張,這種「數位醫師」的做法不僅更快,且可能比標準的人為審查更安全。他們聲稱,AI 能持續且完整地提出一套全面的篩檢問題,而過勞的人類臨床醫師可能會匆忙略過或完全遺漏這些問題。
猶他州試點最具爭議的面向在於其監管分類。藉由授權 AI 擔任處方者,猶他州實際上將該軟體視為執業醫師而非醫療器材。此一區分極為重要,因為「醫療執業」傳統上由各州醫事審查委員會監管,而醫療軟體則屬於食品藥物管理局(FDA)管轄的「作為醫療器材的軟體(Software as a Medical Device,SaMD)」範疇。
Doctronic 與州政府簽署了一份「監管緩解協議(Regulatory Mitigation Agreement,RMA)」,為其營運提供法律庇護。該公司主張,其系統不需要 FDA 核准,因為它提供的服務類似持牌專業人員的職務,而聯邦監管者罕少插手此一領域。然而,法律專家警告此一解讀立場動搖不定。若 FDA 認定 Doctronic 系統符合診斷或治療器材的定義,則有可能主張聯邦優先權,進而關閉該試點或要求進行嚴格的上市前審核程序。
FDA 歷來對某些類型的臨床決策支持(Clinical Decision Support,CDS)軟體採取較為「不干預」的態度,前提是人類提供者仍為最終決策者。猶他州的模式在成功交易時移除了人為介入,直接挑戰 FDA 針對自主醫療軟體的既有指引。
該試點清楚凸顯了醫療效率需求與病患安全監督義務之間的緊張關係。下表概述了傳統續配模式與猶他州測試中的 AI 驅動方式之間的營運差異。
Comparison of Prescription Renewal Models
---|---|----
Feature|Traditional Human Renewal|Doctronic AI Renewal
Wait Time|Days to weeks for appointment/approval|Minutes (Instant analysis)
Cost Structure|Insurance copay or full visit fee ($50-$150)|Flat fee per renewal (~$4)
Decision Maker|Licensed Physician/NP/PA|Autonomous AI Algorithm
Oversight Mechanism|State Medical Board Licensure|Utah OAIP & Regulatory Sandbox
Liability Model|Professional Malpractice Insurance|AI-Specific Liability Policy
Scalability|Limited by provider availability|Infinite (Software-based)
計畫的批評者強調 AI 決策的「黑盒」性質。與能被追問其推理過程的人類醫師不同,深度學習模型可能不透明。人們擔心 AI 在「幻覺」情況或邊緣案例中,可能會誤解病患所描述的症狀。為了因應此一點,Doctronic 已購得一份專門的醫療疏失保險,將 AI 實體當作醫師來處理責任事宜,確保病患在發生醫療疏失時擁有法律求償的途徑——這在業界尚屬首例。
相對地,支持者則主張現行系統未能滿足病患需求。美國基層醫療門診等待時間常超過 20 天,導致處方到期時病患用藥中斷。藉由自動化例行續配的行政負擔,AI 系統理論上能將人力醫師解放出來,專注於複雜個案,同時確保病患持續取得必要的慢性病藥物。
猶他州這項實驗的結果很可能為整個數位健康領域訂下先例。若成功,「猶他模式」或將激勵其他州利用監管沙盒來繞過聯邦瓶頸,導致全國範圍內 AI 監管呈現高度分散的局面。這將迫使 FDA 加速其針對自主醫療 AI 的框架制定,以維持統一的國家標準。
此外,Doctronic 的成功也可能驗證「直達病患的 AI(Direct-to-Patient AI)」商業模式,吸引創投投資那些旨在取代而非輔助臨床流程的新創公司。相反地,若試點發生重大安全失誤,則可能使整個產業倒退數年,並招致對各類醫療自動化採取嚴厲的聯邦打擊。
隨著試點在 2026 年持續進行,醫療相關利害關係人正密切注視。來自猶他州的資料將揭示 AI 是否已準備好接受「不致傷害」的誓言,或是處方簿仍應牢牢掌握在人類手中。