Restez informé avec des mises à jour gratuites

Le gouverneur de Californie, Gavin Newsom, va réfléchir à la possibilité de signer ou d’opposer son veto à un projet de loi controversé sur l’intelligence artificielle proposant d’imposer des réglementations strictes aux entreprises technologiques, après avoir franchi jeudi son dernier obstacle à l’assemblée législative de l’État.

Le démocrate Newsom a jusqu’au 30 septembre pour rendre sa décision sur le projet de loi, qui divise la Silicon Valley. Il obligerait les groupes technologiques et les start-ups développant des modèles d’IA dans l’État à adhérer à un cadre de sécurité strict. Toutes les plus grandes start-ups d’IA, dont OpenAI, Anthropic et Cohere, ainsi que les grandes entreprises technologiques ayant des modèles d’IA, relèveraient de sa compétence.

Newsom devra probablement faire face à un lobbying intense des deux côtés. Certaines des plus grandes entreprises technologiques et d’IA de l’État, dont Google, Meta et OpenAI, ont exprimé leurs inquiétudes au sujet du projet de loi ces dernières semaines, tandis que d’autres, comme Anthropic, soutenu par Amazon, et Elon Musk, propriétaire de la start-up d’IA xAI, ont exprimé leur soutien.

La loi Safe and Secure Innovation for Frontier Artificial Intelligence Systems, connue sous le nom de SB 1047, impose des tests de sécurité pour les modèles d’IA avancés fonctionnant dans l’État dont le développement coûte plus de 100 millions de dollars ou qui nécessitent un niveau élevé de puissance de calcul. Le Congrès américain n’a pas encore établi de cadre fédéral pour la réglementation de l’IA, ce qui a laissé la possibilité à la Californie, un pôle d’innovation technologique, d’élaborer ses propres plans.

Selon le projet de loi, les développeurs devraient créer un « interrupteur d’arrêt » pour désactiver leurs modèles s’ils tournent mal, et ils s’exposeraient à des poursuites judiciaires de la part du procureur général de l’État s’ils ne se conforment pas et que leurs modèles sont utilisés pour menacer la sécurité publique.

Ils devraient également garantir qu’ils ne développeront pas de modèles ayant « une capacité dangereuse », comme la création d’armes biologiques ou nucléaires ou la participation à des attaques de cybersécurité. Les développeurs seraient obligés d’engager des auditeurs tiers pour évaluer leurs pratiques de sécurité et protéger les lanceurs d’alerte en cas d’abus potentiels de l’IA.

Ses opposants, dont certains groupes technologiques et investisseurs de la Silicon Valley, affirment que cela étoufferait l’innovation et forcerait les entreprises d’IA à quitter l’État.

Yann LeCun, responsable scientifique de l’IA chez Meta, a écrit sur X en juillet que le projet de loi serait préjudiciable aux efforts de recherche en IA, tandis qu’OpenAI a averti qu’il créerait un environnement juridique incertain pour les entreprises d’IA et pourrait amener les entrepreneurs et les ingénieurs à quitter la Californie.

Andreessen Horowitz et Y Combinator ont intensifié leur campagne de lobbying contre ces propositions ces dernières semaines, et Nancy Pelosi, ancienne présidente de la Chambre des représentants des États-Unis pour la Californie, a également publié une déclaration d’opposition au projet de loi, le qualifiant de « bien intentionné mais mal informé ». Les opposants ont également affirmé que le projet de loi se concentrait sur les risques hypothétiques et ajoutait un risque de responsabilité « extrême » pour les fondateurs.

Le projet de loi a été amendé ces dernières semaines pour assouplir certaines de ces exigences, notamment en limitant la responsabilité civile qu’il imposait initialement aux développeurs d’IA et en réduisant le champ d’application de ceux qui devraient se conformer aux règles. Cependant, les critiques affirment que le projet de loi impose toujours aux start-ups des exigences onéreuses et parfois irréalistes.

Les partisans du projet de loi estiment que cette technologie en évolution rapide a besoin d’un cadre réglementaire clair. Geoffrey Hinton, ancien responsable de l’intelligence artificielle chez Google, qui soutient le projet de loi, a déclaré dans un communiqué : « Les systèmes d’intelligence artificielle puissants sont incroyablement prometteurs, mais les risques sont également bien réels et doivent être pris très au sérieux. »

« Le projet de loi SB 1047 adopte une approche très judicieuse pour équilibrer ces préoccupations. Je suis toujours passionné par le potentiel de l’IA à sauver des vies grâce aux progrès de la science et de la médecine, mais il est essentiel que nous ayons une législation vraiment audacieuse pour faire face aux risques. »

Le sénateur démocrate de Californie Scott Wiener, qui a présenté le projet de loi plus tôt cette année, a déclaré après son adoption par le Sénat de l’État : « L’innovation et la sécurité peuvent aller de pair, et la Californie montre la voie. Le corps législatif a pris une mesure véritablement historique en travaillant de manière proactive pour garantir qu’une nouvelle technologie passionnante protège l’intérêt public à mesure qu’elle progresse. »



ttn-fr-56