Les républicains de la Chambre ont inséré une clause controversée dans leur vaste ensemble fiscal et dépenses qui interdirait efficacement aux États de réglementer les technologies de l'IA pendant une décennie entière.
La disposition apparaît comme un «moratoire» de dix ans sur les règles de l'IA et de l'IA locale, nichée dans une législation que Président Trump a promu comme son «grand, beau» programme. S'il est adopté, il l'emporterait sur les lois existantes et futures conçues pour protéger les citoyens contre la discrimination fondée sur l'IA, les invasions de confidentialité et d'autres risques, laissant potentiellement les victimes sans recours.
Plus d'une centaine d'organisations s'opposent à la proposition des républicains
Cependant, plus de 100 organisations de plaidoyer, centres académiques et coalitions d'employés ont publiquement condamné la mesure, avertissant qu'elle supprimerait les états de la capacité d'appliquer toutes les lois régissant les modèles d'IA, les systèmes axés sur l'IA ou les outils de prise de décision automatisés, même lorsque ces systèmes infligent des préjudices démontrables.
Dans une lettre remise lundi aux dirigeants du Congrès, notamment le président Mike Johnson et le chef démocrate Hakeem Jeffries, les organisations soutiennent que cette interdiction générale accorderait aux entreprises une licence de déploiement des technologies d'IA non adaptées sans responsabilité.
«Ce moratoire signifierait que même si une entreprise conçoit délibérément un algorithme qui cause des dommages prévisibles, quelle que soit la façon dont l'intention ou l'inconduite intentionnelle ou la façon dont les conséquences sont dévastatrices, la société ou l'utilisation de cette mauvaise technologie ne serait pas responsable des législateurs et du public.»
La lettre se lit
Parmi les 141 signataires figurent les principaux centres de loi et de politique, Cornell University, Georgetown Law's Center on Privacy and Technology, les défenseurs des droits civiques tels que le Southern Poverty Law Center, les syndicats, notamment le syndicat des travailleurs alphabet, et les groupes d'employés axés sur le climat comme les employés d'Amazon pour la justice climatique.
Voir aussi Pro- XRP Avocat appelle la mort de la Crypto Regulation si l'acte de génie ne passe pas
Leur voix combinée souligne à quel point les préoccupations généralisées et bipartites concernant le déploiement d'infirmières non contrôlées sont devenues, passant des universitaires et des organisations à but non lucratif aux travailleurs technologiques de première ligne.
Emily Peterson-Cassin , directrice de l'énergie d'entreprise à la demande à but non lucratif, qui a aidé à rédiger la lettre, appelle la clause de préemption «un cadeau dangereux aux grands PDG de la technologie qui ont tout parié sur une société où l'IA inachevée et inexplicable est prématurément forcée dans tous les aspects de nos vies.»
Elle a exhorté les dirigeants du Congrès à tenir compte de l'intérêt public plutôt que de succomber à des «dons de campagne de grande technologie».
Les États considèrent leurs propres lois sur l'IA malgré les plans des républicains
La disposition de la présentation de l'État arrive au milieu d'un recul plus large des garanties fédérales d'IA. Peu de temps après avoir pris ses fonctions en janvier, President Trump a annulé un décret exécutif de l'ère de Biden qui avait établi des garde-corps pour le développement de l'IA.
Il a également annoncé ce mois-ci ce mois-ci pour soulever les contrôles des exportations sur les puces AI avancées, les déplacements, lui et ses alliés, sont nécessaires pour maintenir le leadership américain dans le secteur, d'autant plus que la concurrence avec la Chine s'intensifie.
«Une réglementation excessive du secteur de l'IA pourrait tuer une industrie transformatrice tout comme elle décolle», vice- dent JD Vance a déclaré aux participants au Sommet de l'action de l'intelligence artificielle en février.
Mais de nombreux États ont répondu au vide de la surveillance fédérale en créant leurs propres règles d'IA pour les demandes à haut risque. du Colorado Landmark 2024 oblige les entreprises à se prémunir contre le biais algorithmique dans l'embauche et les prêts et à informer les consommateurs lorsqu'ils interagissent avec un système d'IA. La récente loi du New Jersey crée des sanctions civiles et pénales pour la dissémination malveillante des profondeurs générées par l'AI.
Voir aussi Le Nebraska adopte le projet de loi pour réglementer la grande élaboration de la cryptographie
Les législateurs de l'Ohio envisagent que la législation obligeait les filigranes sur le contenu produit et interdisant la fraude à ladentvia la technologie DeepFake. Plusieurs États ont également ciblé la désinformation générée par l'AI lors des élections.
Pendant ce temps, la réglementation de certaines applications d'IA a réalisé un accord bipartite rare à Washington. Ce mois-ci, le Congrès a adopté la loi sur la prise de reprise, quident Trump devait se connecter le 19 mai 2025, faisant de la distribution non consensuelle des images explicites et générées par l'AI un crime fédéral.
La mesure enjinterdit le soutien des deux parties, reflétant une alarme généralisée par rapport à l'identité numérique et au harcèlement en ligne.
En revanche, l'interdiction de l'interdiction de l'intermédiaire de l'IA du projet de loi sur le budget de la Chambre interdisait ce type de réglementation supplémentaire et spécifique au secteur à sa création, protégeant les développeurs d'algorithmes de responsabilité même lorsque leurs produits nuisent aux individus ou aux communautés.
Mais, certains principaux dirigeants de l'IA ont appelé publiquement à une plus grande surveillance du gouvernement. En 2023, le PDG d'OpenAI, Sam Altman, a déclaré devant un sous-comité du Sénat selon lequel «l'intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants».
Cryptopolitan Academy: fatiguée des balançoires du marché? Découvrez comment DeFi peut vous aider à créer un revenu passif stable. Inscrivez-vous maintenant