
El panorama regulatorio para la inteligencia artificial en los Estados Unidos ha experimentado un cambio sísmico entre 2023 y 2025. Según datos del Future of Privacy Forum (FPF), legisladores de 14 estados han promulgado 27 leyes distintas relacionadas con la IA, lo que indica un alejamiento de los marcos teóricos generales hacia una regulación específica y de alto impacto.
A principios de 2026, la mayoría de estas leyes ya están vigentes, creando obligaciones de cumplimiento inmediatas para desarrolladores, implementadores y plataformas. Esta ola legislativa aborda áreas críticas que van desde la seguridad de los modelos de frontera (frontier models) y el riesgo catastrófico hasta la transparencia de los chatbots y la distribución no consentida de imágenes íntimas (NCII). Para los profesionales y empresas de IA, comprender este mosaico de requisitos estatales y federales ya no es una cuestión de planificación futura, sino de necesidad legal actual.
En 2024, la tendencia legislativa se inclinó fuertemente hacia leyes integrales de privacidad de datos de los consumidores con componentes de IA. Sin embargo, 2025 marcó un giro distinto hacia medidas más limitadas y basadas en el riesgo. Las legislaturas estatales, particularmente en California y Nueva York, han tomado la iniciativa para llenar el vacío regulatorio federal al enfocarse en tecnologías y casos de uso específicos.
La sesión legislativa de 2025 se definió por un enfoque en los "modelos de frontera" (frontier models) —sistemas de IA altamente capaces entrenados con vastas cantidades de potencia computacional— y los riesgos específicos asociados con la IA generativa (generative AI), como los deepfakes y la manipulación emocional por parte de los chatbots. Este enfoque específico refleja un consenso creciente entre los legisladores de que las diferentes modalidades de IA requieren salvaguardas regulatorias distintas.
Dos de los logros legislativos más significativos en 2025 fueron el Proyecto de Ley del Senado 53 (SB 53) de California y la Ley RAISE de Nueva York. Ambas leyes establecen los primeros regímenes de cumplimiento sustanciales para los desarrolladores de los sistemas de IA más avanzados, estableciendo un estándar nacional de facto para la gobernanza de los modelos de frontera.
Convertida en ley en septiembre de 2025, la SB 53 de California es el primer estatuto de EE. UU. diseñado específicamente para abordar el "riesgo catastrófico" de la IA. La ley se aplica a los "desarrolladores de frontera" que crean modelos entrenados con más de 10^26 operaciones de punto flotante (FLOPs), un umbral que actualmente solo cumplen los modelos fundacionales (foundation models) más avanzados.
Las disposiciones clave incluyen:
Poco después, Nueva York promulgó la Ley de Educación y Seguridad de la IA Responsable (RAISE) en diciembre de 2025. Con vigencia a partir del 1 de enero de 2027, la Ley RAISE refleja los umbrales de cómputo de California (>10^26 FLOPs), pero introduce una oficina de supervisión dedicada dentro del Departamento de Servicios Financieros.
La Ley RAISE requiere:
Más allá de los modelos fundacionales, 2025 vio un aumento en las leyes que regulan la interacción del usuario con la IA, particularmente en lo que respecta a los chatbots y el contenido sintético.
Transparencia de los chatbots
Cinco estados —California, Maine, Nuevo Hampshire, Nueva York y Utah— han promulgado leyes que abordan específicamente los chatbots de IA. Estas regulaciones exigen una divulgación clara cuando un usuario está interactuando con un sistema de IA. La "Ley de Modelos de Compañía de IA" de Nueva York y la SB 243 de California van más allá, enfocándose en las protecciones de salud mental. Requieren que los operadores de chatbots de "compañía" implementen protocolos de seguridad para detectar y mitigar la angustia del usuario o la ideación suicida, reflejando las preocupaciones sobre el impacto emocional de la IA antropomórfica.
La Ley TAKE IT DOWN
A nivel federal, la "Ley TAKE IT DOWN", firmada en mayo de 2025, representa una rara victoria bipartidista para la regulación de la IA. Esta ley tipifica como delito la creación y distribución de imágenes íntimas no consentidas (NCII), incluidos los deepfakes generados por IA. Impone obligaciones estrictas de "notificación y retirada" (notice-and-takedown) a las plataformas, exigiéndoles que eliminen el contenido infractor dentro de las 48 horas posteriores a una solicitud válida, respaldada por el poder de aplicación de la FTC.
Si bien muchas leyes ya están vigentes, varias regulaciones críticas tienen fechas de implementación escalonadas que las empresas deben seguir.
Fechas de entrada en vigor de legislación clave de IA
| Ley | Jurisdicción | Fecha de entrada en vigor |
|---|---|---|
| Ley TAKE IT DOWN (Eliminación de Deepfakes) | Federal | 19 de mayo de 2026 |
| SB 205 (Ley de IA de Colorado) | Colorado | 30 de junio de 2026 |
| SB 1295 (Toma de decisiones automatizada) | Connecticut | 1 de julio de 2026 |
| AB 853 (Enmiendas a la Ley de Transparencia de la IA) | California | 2 de agosto de 2026 |
| Ley RAISE (Seguridad de modelos de frontera) | Nueva York | 1 de enero de 2027 |
| AB 853 (Requisitos de detección de procedencia) | California | 1 de enero de 2027 |
La promulgación de estas 27 leyes crea un entorno de cumplimiento complejo para la audiencia de desarrolladores y líderes empresariales de Creati.ai. La era de la autorregulación voluntaria ha terminado efectivamente para los sistemas de IA de frontera y de alto riesgo.
1. La procedencia es obligatoria
Con la entrada en vigor total de la Ley de Transparencia de la IA de California (AB 853) en 2026 y 2027, los desarrolladores de herramientas de IA generativa deben integrar estándares de marcas de agua y detección de procedencia (como C2PA) en sus sistemas. Las plataformas que alojen contenido de IA estarán legalmente obligadas a etiquetarlo, lo que requerirá una gestión de metadatos robusta.
2. El "efecto Bruselas" en los EE. UU.
Al igual que el GDPR estableció un estándar global para la privacidad, la alineación entre California y Nueva York sobre el umbral de 10^26 FLOPs para los modelos de frontera sugiere que está surgiendo un estándar nacional unificado. Incluso las empresas que no tengan su sede en estos estados probablemente adoptarán estos marcos de seguridad para garantizar el acceso al mercado, nacionalizando efectivamente estos requisitos a nivel estatal.
3. Responsabilidad por el uso derivado (downstream)
La Ley TAKE IT DOWN y las leyes estatales sobre chatbots introducen una responsabilidad significativa para las plataformas que alojan contenido generado por los usuarios. Las empresas deben actualizar su infraestructura de moderación de contenido para manejar solicitudes de eliminación rápidas y detectar medios sintéticos, o arriesgarse a una responsabilidad penal federal y multas civiles sustanciales.
A medida que avanza 2026, anticipamos una mayor actividad legislativa centrada en aplicaciones sectoriales específicas en la salud y el empleo. Por ahora, la prioridad para las organizaciones de IA es auditar sus modelos actuales frente a estas nuevas definiciones estatutarias de sistemas de "frontera" y de "alto riesgo" para garantizar que no se vean sorprendidas por las fechas de entrada en vigor que se avecinan en la segunda mitad del año.