
Washington, D.C. — En un movimiento decisivo para el futuro de la atención médica estadounidense, la Academia Nacional de Medicina (NAM, por sus siglas en inglés) lanzó formalmente su iniciativa "Seguridad del Paciente en la Era de la IA" el 4 de marzo de 2026. Este programa nacional integral tiene como objetivo aprovechar el potencial transformador de la inteligencia artificial (IA) para minimizar los daños a los pacientes, estableciendo al mismo tiempo salvaguardas rigurosas para el despliegue de la IA en entornos clínicos.
La iniciativa representa una evolución significativa en el compromiso de larga data de la NAM con la calidad de la atención médica, basándose directamente en el legado de su informe histórico de 2000, Errar es Humano (To Err Is Human). Si bien aquel informe elevó por primera vez la seguridad del paciente a una prioridad nacional, el panorama actual —dominado por la rápida integración de la IA generativa (Generative AI), la analítica predictiva y la toma de decisiones automatizada— requiere un enfoque estratégico fundamentalmente nuevo.
El 3 de marzo de 2026, un Grupo Directivo de alto nivel se reunió en Washington, D.C., para inaugurar el esfuerzo. El grupo reunió a una coalición diversa de ejecutivos de hospitales, defensores de pacientes, líderes tecnológicos y expertos en políticas. Su mandato es claro pero ambicioso: redactar una estrategia nacional que aproveche la IA no solo como una herramienta de eficiencia, sino como el mecanismo principal para cerrar la brecha de "daño cero" (zero harm) en la atención médica de EE. UU.
Durante más de dos décadas, la industria de la salud ha luchado por erradicar los errores médicos prevenibles. La nueva iniciativa de la NAM parte de la premisa de que la IA ofrece la primera solución técnica viable para superar las limitaciones cognitivas y sistémicas que conducen a tales errores. Al analizar vastos conjuntos de datos para anticipar riesgos antes de que se materialicen, los sistemas de IA podrían, en teoría, servir como una red de seguridad altamente efectiva para los médicos.
Sin embargo, la integración de estas tecnologías conlleva su propio conjunto de riesgos, incluidos el sesgo algorítmico, la falta de transparencia y el potencial de "alucinaciones" en los modelos generativos. La iniciativa busca equilibrar estos factores, asegurando que la adopción de la IA en salud sea tanto agresiva en su búsqueda de la seguridad como conservadora en su gestión del riesgo.
Gianrico Farrugia, M.D., presidente y director ejecutivo de Mayo Clinic y copresidente del Grupo Directivo, enfatizó la gravedad del momento durante el lanzamiento. "Hoy marca un momento crucial en nuestro viaje nacional hacia una atención más segura", declaró Farrugia. "Estoy convencido de que las herramientas de IA emergentes pueden aumentar notablemente las mejoras en la seguridad del paciente y hacerlo a escala, pero hacer realidad esa promesa requiere una colaboración deliberada intersectorial y una estrategia reflexiva".
La iniciativa está estructurada para abordar la naturaleza multifacética del despliegue de la IA. No se limitará a producir un informe estático, sino que participará en un proceso dinámico de redacción de dominios estratégicos, solicitud de comentarios públicos e iteración de recomendaciones de políticas. El equipo de liderazgo refleja este enfoque intersectorial, asegurando que las voces de los pacientes tengan el mismo peso que las de los tecnólogos y administradores de hospitales.
El Grupo Directivo está anclado por tres copresidentes que representan los pilares críticos del ecosistema de atención médica: prestación clínica, defensa del paciente y administración de sistemas.
Tabla 1: Liderazgo del Grupo Directivo y áreas de enfoque
| Líder | Rol | Organización | Enfoque estratégico clave |
|---|---|---|---|
| Gianrico Farrugia, M.D. | Copresidente | Mayo Clinic | Integración clínica y escalamiento de herramientas de seguridad de IA en sistemas de salud complejos |
| Sue Sheridan | Copresidenta | Patients for Patient Safety US | Garantizar que la IA democratice la información y empodere la autonomía del paciente |
| Wright Lassiter | Copresidente | CommonSpirit Health | Abordar las brechas de equidad y operacionalizar la IA en diversos entornos de atención |
Wright Lassiter, presidente y director ejecutivo de CommonSpirit Health, enmarcó la adopción de la IA no como una opción, sino como un imperativo ético. "La seguridad del paciente es el caso de uso ideal para la IA en salud", señaló Lassiter. "No adoptarlas corre el riesgo de ampliar las brechas existentes de seguridad y equidad que ya sabemos cómo cerrar".
La NAM ha delineado una hoja de ruta de múltiples fases para la iniciativa. Inicialmente, el Grupo Directivo desarrollará "borradores de dominios" para una estrategia de seguridad del paciente. Es probable que estos dominios cubran áreas como la gobernanza algorítmica, la capacitación de la fuerza laboral, la transparencia de datos y los marcos de responsabilidad.
Tras la fase de redacción, la iniciativa abrirá un período de comentarios públicos. Esta transparencia está diseñada para generar confianza, un activo que se ha visto algo erosionado por la naturaleza opaca de los algoritmos de IA de "caja negra" (black box). El resultado final será un enfoque estratégico nacional cohesivo que proporcione a los sistemas de salud directrices prácticas para la adquisición, el despliegue y el monitoreo de herramientas de IA.
La iniciativa cuenta con el respaldo de una robusta coalición de financiadores, lo que garantiza que tenga los recursos para operar de manera independiente de intereses corporativos específicos. Los socios financieros incluyen la Elevance Health Foundation, la Asociación para el Avance de la Instrumentación Médica (AAMI), la California Health Care Foundation y Premier, Inc.
En paralelo con el trabajo estratégico de la NAM, la Elevance Health Foundation ha lanzado un "Premio a la Seguridad del Paciente". Este concurso invita a los innovadores a presentar soluciones de IA transformadoras capaces de mejorar los resultados de seguridad para poblaciones vulnerables, creando un incentivo inmediato para que las soluciones impulsadas por el mercado complementen el trabajo de políticas de la NAM.
La iniciativa de la NAM llega en un momento de intensa actividad legislativa con respecto a la inteligencia artificial. Según informaron analistas legales a principios de 2026, las legislaturas estatales de EE. UU. han introducido un número récord de proyectos de ley centrados en la IA. La Asociación Internacional de Profesionales de la Privacidad (IAPP) señaló en un análisis de marzo de 2026 que los legisladores estatales se están alejando cada vez más de las regulaciones generales de tipo ómnibus en favor de leyes específicas por sector.
Tendencias clave en la legislación estatal sobre IA (Sesión 2026):
Este entorno legislativo fragmentado subraya la necesidad de la iniciativa nacional de la NAM. Si bien los estados pueden penalizar a los malos actores o exigir la divulgación, carecen de la experiencia médica para definir qué constituye una IA clínica "segura". La NAM pretende llenar este vacío estableciendo estándares clínicos que puedan informar la legislación futura y armonizar las dispares reglas estatales en un marco coherente para la seguridad del paciente.
Un tema central del lanzamiento fue la preservación del elemento humano en la atención médica. Sue Sheridan, copresidenta y directora ejecutiva de Patients for Patient Safety US, destacó que, aunque la IA a menudo se discute en términos técnicos, su valor último reside en el empoderamiento del paciente.
"La inteligencia artificial ya está remodelando la prestación de atención y mejorando el diagnóstico, pero también está democratizando la información, empoderando a los pacientes y potenciando la autonomía de los mismos", explicó Sheridan. Sus comentarios reflejan un consenso creciente de que la IA no debe reemplazar a los médicos, sino más bien aumentar la relación paciente-proveedor al eliminar las cargas administrativas y reducir la probabilidad de error humano.
La iniciativa también planea abordar la "brecha de confianza". A medida que los sistemas de IA se vuelven más autónomos —potencialmente diagnosticando condiciones o recomendando tratamientos sin supervisión humana inmediata— los pacientes deben tener la seguridad de que estos sistemas actúan en su mejor interés. La estrategia de la NAM probablemente incluirá protocolos de verificación de "humano en el bucle" (human-in-the-loop), asegurando que las decisiones médicas críticas siempre conserven una capa de responsabilidad humana.
A medida que la iniciativa "Seguridad del Paciente en la Era de la IA" avance, enfrentará desafíos significativos. El ritmo del desarrollo de la IA supera actualmente la velocidad del consenso científico. Las herramientas lanzadas hoy pueden quedar obsoletas en seis meses, lo que dificulta la creación de estándares de seguridad duraderos.
Sin embargo, el consenso entre los asistentes en Washington fue que esperar no es una opción. Con la IA ya desplegada en las oficinas administrativas de los hospitales y en los centros de diagnóstico por imagen, el sistema de salud ya se encuentra en la "Era de la IA". La iniciativa de la NAM es un intento de asegurar que esta era se defina no por daños algorítmicos imprevistos, sino por una reducción histórica del error médico.
El Grupo Directivo continuará su trabajo a lo largo de 2026, y se esperan actualizaciones públicas y oportunidades de participación en los próximos meses. Para la industria tecnológica, los proveedores de atención médica y los pacientes por igual, el resultado de esta iniciativa probablemente definirá las reglas del juego para la próxima década de salud digital.
Para los desarrolladores de IA y las empresas de tecnología sanitaria, el lanzamiento de la NAM señala un cambio hacia requisitos de validación más rigurosos. La era de "moverse rápido y romper cosas" es incompatible con la medicina clínica. Las empresas deben anticipar que las futuras directrices de adquisición de los principales sistemas de salud se alinearán con los estándares que surjan de esta iniciativa.
Conclusiones prácticas para desarrolladores de IA en salud:
El lanzamiento de esta iniciativa confirma que 2026 es el año en que la IA en salud pasa de ser una novedad a ser una infraestructura crítica regulada. La Academia Nacional de Medicina ha marcado su territorio, señalando que la seguridad del paciente debe seguir siendo la estrella del norte en un mundo que se digitaliza rápidamente.