
El 18 de marzo de 2026, la senadora estadounidense Marsha Blackburn (republicana por Tennessee) presentó un borrador de discusión integral del "Trump America AI Act". Esta iniciativa legislativa representa uno de los intentos más significativos del Congreso para establecer un marco federal (federal framework) unificado para la inteligencia artificial, con el objetivo de reemplazar el "mosaico" fragmentado de regulaciones a nivel estatal que ha surgido en los últimos dos años. Con una extensión de casi 300 páginas, el proyecto de ley busca codificar los principios delineados en las órdenes ejecutivas anteriores del presidente Trump, creando un estándar nacional que prioriza la protección del consumidor, la moderación de contenido y el dominio competitivo en la carrera global de la IA.
El proyecto de ley, titulado formalmente "Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act", no es meramente una actualización técnica; es un cambio fundamental en la forma en que Estados Unidos aborda la gobernanza digital. Al dirigirse a la intersección del desarrollo de la IA, la propiedad intelectual y la responsabilidad en línea, la propuesta de la senadora Blackburn aborda quejas conservadoras de larga data al tiempo que establece nuevas obligaciones, potencialmente onerosas, para las empresas tecnológicas.
El posicionamiento central del Trump America AI Act se centra en lo que la senadora Blackburn describe como las "4 Cs": un mandato para proteger a los Niños (Children), Creadores (Creators), Conservadores (Conservatives) y Comunidades (Communities). Este marco está diseñado para abordar daños específicos percibidos asociados con los modelos de inteligencia artificial a gran escala y las plataformas que los despliegan.
Un componente importante de la legislación es la implementación de un estricto "deber de diligencia" (duty of care) para los desarrolladores de IA. Esta disposición ordena que las empresas ejerzan un cuidado razonable en el diseño, desarrollo y operación de las plataformas de IA para prevenir y mitigar el "daño previsible" a los usuarios. Este lenguaje está particularmente dirigido a proteger a los menores. El proyecto de ley restringiría la capacidad de las plataformas para realizar investigaciones de mercado o productos en niños menores de 13 años y requeriría el consentimiento de los padres para investigaciones que involucren a menores de hasta 17 años. Al obligar a los desarrolladores a implementar salvaguardas sólidas contra los trastornos de salud mental y el acoso vinculados a la interacción en línea, la legislación pretende trasladar la responsabilidad de la seguridad del usuario al desarrollador.
Para los "Creadores", la Ley incluye disposiciones significativas sobre derechos de autor (copyright). Plantea que el uso no autorizado de obras protegidas por derechos de autor para el entrenamiento, el ajuste fino (fine-tuning) o el desarrollo de modelos de IA no califica como "uso legítimo" (fair use) bajo la Ley de Derechos de Autor. Además, considera que el contenido generado por sistemas de IA sin autorización no es elegible para la protección de derechos de autor. Esto representa una postura firme contra la dependencia actual de la industria en conjuntos de datos vastos y no curados, lo que potencialmente obligaría a los laboratorios de IA a pivotar hacia modelos de datos licenciados o sintéticos.
Quizás el aspecto más controvertido del Trump America AI Act es su desafío directo a la Sección 230 (Section 230) de la Ley de Comunicaciones. Considerada durante mucho tiempo como el estatuto fundacional de la internet moderna, la Sección 230 otorga inmunidad legal a las plataformas en línea por el contenido publicado por terceros. El proyecto de ley de la senadora Blackburn propone la eliminación gradual (sunset) de estas protecciones, argumentando que el escudo de responsabilidad actual permite que las plataformas eviten la rendición de cuentas por decisiones algorítmicas que pueden dañar a los usuarios o infringir derechos.
La siguiente tabla resume el cambio propuesto en el panorama regulatorio presentado por este borrador legislativo:
| Característica | Estado Actual | Cambio Propuesto bajo el Trump America AI Act |
|---|---|---|
| Responsabilidad de la IA | Limitada/Variable | "Deber de diligencia" estatutario aplicado por la FTC |
| Sección 230 | Amplia inmunidad de plataforma | Eliminación total (Sunset) de las protecciones |
| Datos de entrenamiento | Defensa de "uso legítimo" prevalente | El entrenamiento no autorizado se considera infracción |
| Sesgo político | Autorregulado | Auditorías obligatorias para la neutralidad política |
La introducción de este proyecto de ley señala un posible fin al entorno regulatorio de "toque ligero" (light-touch) que muchos en el sector tecnológico han defendido. Para los oficiales de cumplimiento y los equipos legales, el borrador introduce un conjunto complejo de requisitos que se extienden más allá de la gestión de riesgos estándar.
El proyecto de ley ordena auditorías de terceros para prevenir la discriminación basada en la afiliación política. Este requisito, dirigido al componente de "Conservadores" de las 4 Cs, apunta a las preocupaciones de que los sistemas de IA están siendo ajustados con sesgos ideológicos que favorecen puntos de vista culturales o políticos específicos. Mientras que los defensores argumentan que esto garantiza la neutralidad, los críticos dentro de la industria tecnológica advierten que podría llevar a una presión respaldada por el gobierno sobre los desarrolladores para manipular los resultados de los modelos a fin de alinearlos con las prioridades políticas actuales, creando efectivamente un "complejo industrial de auditoría de IA" que podría frenar la innovación y aumentar significativamente los costos de desarrollo.
Al ampliar las vías legales disponibles para el Fiscal General de los EE. UU., los fiscales generales estatales y los ciudadanos privados, la Ley aumenta drásticamente el riesgo de litigios para los desarrolladores de IA. Las empresas pueden encontrarse enfrentando acciones de cumplimiento paralelas por "diseño defectuoso", "falta de advertencia" o sistemas de IA "irrazonablemente peligrosos". Para las empresas emergentes (startups) más pequeñas y los colaboradores de código abierto (open-source), el costo de defenderse contra tales reclamos —que a menudo involucran procesos complejos de exhibición de pruebas (discovery) sobre la toma de decisiones algorítmica patentada— podría resultar insuperable, lo que potencialmente llevaría a una consolidación del mercado donde solo las firmas más grandes y mejor financiadas puedan permitirse operar.
Si bien el "Trump America AI Act" se encuentra actualmente en la etapa de borrador de discusión, su existencia sirve como un marcador para el futuro de la política federal de IA. El proyecto de ley incorpora varios elementos bipartidistas, como la Ley de Seguridad en Línea para Niños (Kids Online Safety Act) y la Ley NO FAKES (NO FAKES Act), que han tenido diversos grados de apoyo en ambos lados del espectro político. Sin embargo, la inclusión de disposiciones más agresivas, como la eliminación total de la Sección 230 y la postura específica sobre el uso legítimo de derechos de autor, garantiza que el debate legislativo será contencioso.
Los analistas de la industria están observando de cerca cómo reaccionará la Casa Blanca a este marco. Dado el posicionamiento explícito del proyecto de ley y su alineación con la orden ejecutiva sobre IA de diciembre de 2025, está claramente destinado a servir como un "libro de reglas" legislativo. Sin embargo, como lo demuestran las reacciones de organizaciones como el Cato Institute y otros grupos de política, existe un rechazo significativo a la idea de que una intervención gubernamental de mano dura sea la solución a los riesgos relacionados con la IA. La tensión entre el deseo de uniformidad federal y el temor de sofocar la competitividad tecnológica probablemente dominará la conversación en los próximos meses.
El Trump America AI Act es un intento audaz, aunque polarizador, de reescribir las reglas de la era digital. Al codificar un "deber de diligencia" y desafiar las protecciones de inmunidad que han definido la internet durante décadas, la senadora Blackburn ha obligado a la industria de la IA a enfrentar una nueva realidad: es probable que la era de la experimentación sin control esté llegando a su fin. A medida que el Congreso avance en la evaluación de este borrador, los desarrolladores, inversores y responsables políticos deben prepararse para un futuro donde el cumplimiento, la transparencia y la rendición de cuentas no sean solo mejores prácticas, sino requisitos legales. El resultado de esta legislación sentará el precedente para el liderazgo estadounidense en IA —y para el estándar global de gobernanza tecnológica— en los años venideros.