
El panorama de la regulación de la inteligencia artificial en los Estados Unidos ha cambiado significativamente con el último movimiento legislativo del estado de Washington. A finales de marzo de 2026, el gobernador Bob Ferguson firmó un par de proyectos de ley históricos—el Proyecto de Ley de la Cámara 1170 (House Bill 1170) y el Proyecto de Ley de la Cámara 2225 (House Bill 2225)—que establecen nuevos estándares rigurosos para los medios generados por IA y los chatbots de compañía. A medida que estas tecnologías se integran profundamente en el tejido de la vida diaria, Washington se posiciona a la vanguardia del esfuerzo por mitigar los riesgos potenciales, particularmente en lo que respecta a la desinformación y el bienestar de los usuarios jóvenes.
Este hito legislativo no es simplemente una actualización regulatoria localizada; sirve como un indicador para el resto de la nación. Al codificar los requisitos de divulgación, marcas de agua y protocolos de seguridad específicos para menores, Washington ha desafiado efectivamente a la industria tecnológica a priorizar la transparencia y la seguridad del usuario sobre el despliegue sin restricciones. Para los desarrolladores, las partes interesadas y los consumidores, comprender estos nuevos mandatos es esencial, ya que ofrecen un vistazo al futuro del cumplimiento operativo en la era de la IA generativa (Generative AI).
El Proyecto de Ley de la Cámara 1170 representa una respuesta directa a la creciente ansiedad pública que rodea a la desinformación generada por IA y la dificultad de distinguir entre el contenido creado por humanos y el generado por máquinas. A medida que los deepfakes y los medios alterados por IA se vuelven cada vez más sofisticados, la capacidad del usuario promedio para verificar la autenticidad de la información visual y auditiva se ha desplomado.
Bajo la nueva ley, las grandes empresas de IA—definidas por su escala de operaciones y base de usuarios—están ahora legalmente obligadas a garantizar que los medios alterados creados por sus sistemas puedan rastrearse hasta su origen artificial.
La legislación exige que las empresas de IA identifiquen cuándo las imágenes, el video o el contenido de audio han sido sustancialmente modificados o creados utilizando sus sistemas. El requisito principal es que esta divulgación debe ser "comercial y técnicamente razonable". Para cumplir con este umbral, se espera que las empresas implementen:
Al exigir estas divulgaciones, el estado de Washington pretende frenar la propagación de contenido engañoso. Este cambio traslada efectivamente la carga de la prueba a los desarrolladores de modelos de IA, asegurando que la tecnología vaya acompañada de los metadatos necesarios para evitar que se utilice para alimentar campañas de desinformación o actividades fraudulentas.
Mientras que la HB 1170 aborda la procedencia de los medios, el Proyecto de Ley de la Cámara 2225 aborda el impacto conductual y emocional de los "chatbots de compañía de IA (chatbots)"—sistemas diseñados para imitar la conversación humana y fomentar relaciones continuas. Estas herramientas, aunque innovadoras, han generado alarmas con respecto a su potencial para manipular a los usuarios o exacerbar los problemas de salud mental, especialmente en los grupos demográficos más jóvenes.
La ley establece un estándar alto de seguridad, exigiendo que cualquier plataforma que ofrezca chatbots de estilo compañero deba integrar salvaguardas específicas diseñadas para proteger a los menores.
Los requisitos para los operadores de IA de compañía se bifurcan según la edad del usuario y la naturaleza de la conversación. Los pilares regulatorios clave incluyen:
La siguiente tabla resume los mandatos principales establecidos bajo la nueva legislación del estado de Washington, contrastando los requisitos para los medios de IA estándar frente a los de los chatbots de compañía.
| Categoría | Requisito | Aplicación a menores |
|---|---|---|
| Medios generados por IA | Marca de agua obligatoria o metadatos incrustados para archivos alterados | N/A |
| Chatbots generales | Divulgación inicial y recordatorio de recurrencia cada 3 horas | Recordatorio de recurrencia de 1 hora |
| Protocolos de seguridad | Sin requisito explícito | Debe prohibir contenido manipulador y resultados sexualmente sugerentes |
| Intervención en crisis | Mejor práctica recomendada | Protocolos obligatorios para la detección de autolesiones y suicidio |
La aprobación de estos proyectos de ley señala una transición de una era de "moverse rápido y romper cosas" (move fast and break things) a un período de "moverse con responsabilidad y cumplir" (move responsibly and comply). Para empresas como OpenAI, Anthropic y otros laboratorios de IA emergentes, los requisitos establecidos por Washington requieren una recalibración de sus estrategias de despliegue.
La industria ha argumentado durante mucho tiempo que la autorregulación es el camino más eficaz a seguir. Sin embargo, la tendencia legislativa—no solo en Washington, sino también en estados como Oregón y California—sugiere que los legisladores ya no consideran suficientes las directrices voluntarias. Al establecer estas protecciones, Washington está creando efectivamente un nuevo "suelo" de cumplimiento para la industria.
Además, la inclusión de un derecho privado de acción en la HB 2225 es particularmente significativa. Faculta a las personas para buscar recursos legales, lo que añade una capa de responsabilidad de la que a menudo carece la supervisión regulatoria tradicional. Las empresas que ignoren estos requisitos se enfrentan no solo al posible escrutinio del fiscal general del estado, sino también al riesgo de litigios por parte de los consumidores.
A medida que se acerca la fecha de entrada en vigor del 1 de enero de 2027, el sector tecnológico se enfrenta a un período de ajuste rápido. Los desarrolladores deben integrar ahora los principios de cumplimiento por diseño en sus arquitecturas de IA. Esto significa que la trazabilidad, el filtrado adecuado para la edad y las capacidades de detección de crisis ya no pueden ser características "adicionales"; deben ser elementos fundamentales de cualquier producto de IA orientado al consumidor.
Mientras algunos críticos argumentan que estas regulaciones pueden sofocar la innovación o crear una carga indebida para las empresas emergentes más pequeñas, los defensores sostienen que son esenciales para el crecimiento sostenible de la IA. Al construir una base de confianza y seguridad, Washington intenta asegurar que la adopción de la IA generativa no se produzca a expensas de la seguridad pública o la verdad.
A medida que otros estados observen la implementación de estas leyes en Washington, es muy probable que veamos un efecto dominó. Para Creati.ai, este cambio subraya la necesidad de que las empresas se mantengan ágiles y con visión de futuro. El entorno regulatorio está evolucionando, y aquellos que prioricen la seguridad del usuario y la divulgación de la IA transparente estarán mejor posicionados para liderar en esta nueva era de mayor responsabilidad.