
Le 18 mars 2026, la sénatrice américaine Marsha Blackburn (R-Tenn.) a présenté un avant-projet de discussion complet du « Trump America AI Act ». Cette initiative législative représente l'une des tentatives les plus significatives du Congrès pour établir un cadre fédéral unifié pour l'intelligence artificielle (Artificial Intelligence), visant à remplacer la « mosaïque » fragmentée de réglementations étatiques apparue ces deux dernières années. S'étendant sur près de 300 pages, le projet de loi cherche à codifier les principes énoncés dans les décrets précédents du président Trump, créant une norme nationale qui donne la priorité à la protection des consommateurs, à la modération du contenu et à la domination compétitive dans la course mondiale à l'IA (AI).
Le projet de loi, officiellement intitulé « Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act », n'est pas seulement une mise à jour technique ; c'est un changement fondamental dans la manière dont les États-Unis abordent la gouvernance numérique. En ciblant l'intersection du développement de l'IA, de la propriété intellectuelle et de la responsabilité en ligne, la proposition de la sénatrice Blackburn répond aux griefs conservateurs de longue date tout en fixant de nouvelles obligations, potentiellement onéreuses, pour les entreprises technologiques.
L'image de marque centrale du Trump America AI Act s'articule autour de ce que la sénatrice Blackburn décrit comme les « 4 C » — un mandat pour protéger les Enfants (Children), les Créateurs (Creators), les Conservateurs (Conservatives) et les Communautés (Communities). Ce cadre est conçu pour remédier aux préjudices perçus spécifiques associés aux modèles d'intelligence artificielle à grande échelle et aux plateformes qui les déploient.
Un élément majeur de la législation est la mise en œuvre d'un strict « devoir de diligence » (duty of care) pour les développeurs d'IA. Cette disposition exige que les entreprises fassent preuve d'une diligence raisonnable dans la conception, le développement et l'exploitation des plateformes d'IA afin de prévenir et d'atténuer les « dommages prévisibles » pour les utilisateurs. Ce libellé vise particulièrement la protection des mineurs. Le projet de loi limiterait la capacité des plateformes à mener des études de marché ou de produits sur les enfants de moins de 13 ans et exigerait le consentement parental pour les recherches impliquant des mineurs jusqu'à l'âge de 17 ans. En forçant les développeurs à mettre en œuvre des garanties robustes contre les troubles de la santé mentale et le harcèlement liés à l'engagement en ligne, la législation vise à transférer la responsabilité de la sécurité de l'utilisateur vers le développeur.
Pour les « Créateurs », la loi comprend des dispositions importantes sur le droit d'auteur. Elle postule que l'utilisation non autorisée d'œuvres protégées par le droit d'auteur pour l'entraînement, l'ajustement fin (fine-tuning) ou le développement de modèles d'IA ne constitue pas un usage loyal (fair use) en vertu de la loi sur le droit d'auteur. De plus, elle considère que le contenu généré par des systèmes d'IA sans autorisation n'est pas éligible à la protection du droit d'auteur. Cela représente une position ferme contre la dépendance actuelle de l'industrie à l'égard de vastes ensembles de données non organisés, forçant potentiellement les laboratoires d'IA à se tourner vers des modèles de données sous licence ou synthétiques.
L'aspect le plus controversé du Trump America AI Act est peut-être sa remise en question directe de l'Section 230 de la loi sur les communications (Communications Act). Longtemps considéré comme le statut fondateur de l'internet moderne, l'article 230 accorde une immunité juridique aux plateformes en ligne pour le contenu publié par des tiers. Le projet de loi de la sénatrice Blackburn propose de mettre fin à ces protections, arguant que le bouclier de responsabilité actuel permet aux plateformes d'éviter de rendre des comptes pour les décisions algorithmiques qui pourraient nuire aux utilisateurs ou enfreindre des droits.
Le tableau suivant résume le changement proposé dans le paysage réglementaire apporté par ce projet de loi :
| Caractéristique | État actuel | Changement proposé sous le Trump America AI Act |
|---|---|---|
| Responsabilité de l'IA | Limitée/Variable | « Devoir de diligence » statutaire appliqué par la FTC |
| Article 230 | Large immunité des plateformes | Suppression totale des protections |
| Données d'entraînement | Défense de l'usage loyal prédominante | Entraînement non autorisé considéré comme une contrefaçon |
| Biais politique | Auto-régulé | Audits obligatoires pour la neutralité politique |
L'introduction de ce projet de loi signale une fin potentielle à l'environnement réglementaire « souple » que de nombreux acteurs du secteur technologique ont préconisé. Pour les responsables de la conformité et les équipes juridiques, le projet introduit un ensemble complexe d'exigences qui s'étendent au-delà de la gestion des risques standard.
Le projet de loi impose des audits par des tiers pour prévenir la discrimination fondée sur l'affiliation politique. Cette exigence, visant la composante « Conservateurs » des 4 C, cible les préoccupations selon lesquelles les systèmes d'IA sont ajustés avec des biais idéologiques favorisant des points de vue culturels ou politiques spécifiques. Alors que les partisans soutiennent que cela garantit la neutralité, les critiques au sein de l'industrie technologique avertissent que cela pourrait conduire à une pression soutenue par le gouvernement sur les développeurs pour manipuler les résultats des modèles afin de les aligner sur les priorités politiques actuelles, créant ainsi un « complexe audit-industriel de l'IA » qui pourrait ralentir l'innovation et augmenter considérablement les coûts de développement.
En élargissant les voies juridiques offertes au procureur général des États-Unis, aux procureurs généraux des États et aux citoyens privés, la loi augmente considérablement le risque de litige pour les développeurs d'IA. Les entreprises pourraient se retrouver confrontées à des actions coercitives parallèles pour « conception défectueuse », « défaut d'avertissement » ou systèmes d'IA « déraisonnablement dangereux ». Pour les petites startups et les contributeurs open-source, le coût de la défense contre de telles réclamations — impliquant souvent des processus de communication de pièces complexes concernant la prise de décision algorithmique propriétaire — pourrait s'avérer insurmontable, menant potentiellement à une consolidation du marché où seules les entreprises les plus grandes et les mieux financées peuvent se permettre d'opérer.
Bien que le « Trump America AI Act » en soit actuellement au stade de projet de discussion, son existence sert de marqueur pour l'avenir de la politique fédérale en matière d'IA. Le projet de loi intègre plusieurs éléments bipartisans, tels que le Kids Online Safety Act et le NO FAKES Act, qui ont bénéficié de divers degrés de soutien des deux côtés de l'échiquier politique. Cependant, l'inclusion de dispositions plus agressives, telles que la suppression totale de l'article 230 et la position spécifique sur l'usage loyal du droit d'auteur, garantit que le débat législatif sera houleux.
Les analystes du secteur surveillent de près la réaction de la Maison-Blanche face à ce cadre. Étant donné l'image de marque explicite du projet de loi et son alignement avec le décret de décembre 2025 sur l'IA, il est clairement destiné à servir de « livre de règles » législatif. Pourtant, comme le démontrent les réactions d'organisations comme le Cato Institute et d'autres groupes de réflexion, il existe une forte opposition à l'idée qu'une intervention gouvernementale musclée soit la solution aux risques liés à l'IA. La tension entre le désir d'uniformité fédérale et la peur d'étouffer la compétitivité technologique dominera probablement les conversations dans les mois à venir.
Le Trump America AI Act est une tentative audacieuse, bien que polarisante, de réécrire les règles de l'ère numérique. En codifiant un « devoir de diligence » et en remettant en cause les protections d'immunité qui ont défini l'internet pendant des décennies, la sénatrice Blackburn a forcé l'industrie de l'IA à faire face à une nouvelle réalité : l'ère de l'expérimentation incontrôlée touche probablement à sa fin. Alors que le Congrès s'apprête à évaluer ce projet, les développeurs, les investisseurs et les décideurs politiques doivent se préparer à un avenir où la conformité, la transparence et la responsabilité ne sont plus seulement des meilleures pratiques, mais des exigences statutaires. L'issue de cette législation créera un précédent pour le leadership américain en matière d'IA — et pour la norme mondiale de gouvernance technologique — pour les années à venir.