Restez informé avec des mises à jour gratuites

OpenAI s’est attaqué à un projet de loi californien visant à garantir que l’intelligence artificielle puissante soit déployée en toute sécurité et a suggéré que de nouveaux contrôles menaceraient sa croissance dans l’État, rejoignant ainsi une frénésie de lobbying de dernière minute des investisseurs et des groupes d’IA pour bloquer la législation.

Le projet de loi, SB 1047, menace « le statut unique de la Californie en tant que leader mondial de l’IA », a écrit le directeur de la stratégie de l’entreprise, Jason Kwon, dans une lettre adressée à Scott Wiener, le sénateur de l’État de Californie à l’origine du projet de loi.

Cela pourrait « ralentir le rythme de l’innovation et conduire les ingénieurs et entrepreneurs californiens de renommée mondiale à quitter l’État à la recherche de meilleures opportunités ailleurs », a-t-il ajouté.

La proposition de loi SB 1047 a divisé la Silicon Valley. Si la nécessité de limiter les risques liés aux nouveaux modèles d’IA ultra-puissants est largement reconnue, les critiques ont fait valoir que les propositions de Wiener étoufferaient les start-ups, profiteraient aux rivaux de l’Amérique et saperaient la position de la Californie à l’épicentre d’un boom de l’IA.

OpenAI est la dernière start-up à s’opposer à certains éléments du projet de loi, et la plus importante – en grande partie grâce à la popularité de son chatbot ChatGPT et à un engagement de 13 milliards de dollars de son partenaire Microsoft.

OpenAI soutient les dispositions visant à garantir que les systèmes d’IA soient développés et déployés en toute sécurité, mais soutient dans la lettre, qui a été rapportée pour la première fois par Bloomberg, que la législation devrait venir du gouvernement fédéral, et non des États individuels.

Dans une réponse donnée mercredi, Wiener a déclaré qu’il était d’accord avec le fait que le gouvernement fédéral devrait prendre l’initiative, mais qu’il était « sceptique » quant à la volonté du Congrès d’agir. Il a également critiqué « l’argument éculé » selon lequel les start-ups technologiques délocaliseraient si le projet de loi était adopté et a déclaré que les entreprises basées en dehors de l’État devraient toujours se conformer au projet de loi pour faire des affaires localement.

L’Assemblée de l’État de Californie doit se prononcer sur le projet de loi d’ici la fin du mois. S’il est adopté, le gouverneur Gavin Newsom décidera alors s’il le promulgue ou s’il y oppose son veto.

Les groupes technologiques et les investisseurs de la Silicon Valley, dont Anthropic, Andreessen Horowitz et YCombinator, ont intensifié leur campagne de lobbying contre les propositions de Wiener en faveur d’un cadre de sécurité strict. Nancy Pelosi, ancienne présidente de la Chambre des représentants et représentante de Californie, a également publié une déclaration d’opposition au projet de loi la semaine dernière, le qualifiant de « bien intentionné mais mal informé ».

Parmi les éléments les plus controversés des propositions initiales du sénateur figuraient les demandes pour que les entreprises d’IA garantissent à un nouvel organisme d’État qu’elles ne développeront pas de modèles dotés d’une « capacité dangereuse » et créent un « interrupteur d’arrêt » pour désactiver leurs puissants modèles.

Les opposants ont affirmé que le projet de loi se concentrait sur les risques hypothétiques et ajoutait un risque de responsabilité « extrême » pour les fondateurs.

Le projet de loi a été modifié pour assouplir certaines de ces exigences la semaine dernière – par exemple, en limitant les responsabilités civiles qu’il imposait initialement aux développeurs d’IA et en réduisant le champ d’application de ceux qui devraient adhérer aux règles.

Les critiques estiment toutefois que le projet de loi impose toujours aux start-up des exigences onéreuses et parfois irréalistes. Lundi, les députées Anna Eshoo et Zoe Lofgren ont écrit dans une lettre adressée à Robert Rivas, président de l’Assemblée de Californie, qu’il y avait « encore des problèmes importants avec la structure sous-jacente du projet de loi », appelant plutôt à « se concentrer sur les règles fédérales pour contrôler les outils physiques nécessaires à la création de ces menaces physiques ».

Malgré les critiques d’éminents universitaires en IA, tels que Fei-Fei Li de Stanford et Andrew Ng, qui ont dirigé des projets d’IA chez Google d’Alphabet et Baidu en Chine, le projet de loi a trouvé le soutien de certains des « parrains de l’IA », comme Geoffrey Hinton de l’Université de Toronto et Yoshua Bengio, professeur d’informatique à l’Université de Montréal.

« En résumé : le SB 1047 est un projet de loi très raisonnable qui demande aux grands laboratoires d’IA de faire ce qu’ils se sont déjà engagés à faire, à savoir tester leurs grands modèles pour détecter les risques de sécurité catastrophiques », a écrit Wiener mercredi.



ttn-fr-56