Des scientifiques chinois en IA appellent à une réglementation plus stricte avant un sommet historique


Restez informé avec des mises à jour gratuites

Les scientifiques chinois de l’intelligence artificielle se sont joints aux universitaires occidentaux pour appeler à des contrôles plus stricts sur la technologie que ceux proposés par le Royaume-Uni, les États-Unis et l’UE, alors que les pays exposent des positions rivales avant le sommet mondial sur la sécurité de l’IA de cette semaine.

Plusieurs universitaires chinois participants au sommet de Bletchley Park, en Angleterre, qui s’ouvre mercredi, ont signé une déclaration avertissant que l’IA avancée posera un « risque existentiel pour l’humanité » dans les décennies à venir.

Le groupe, qui comprend Andrew Yao, l’un des plus éminents informaticiens chinois, appelle à la création d’un organisme de réglementation international, à l’enregistrement et à l’audit obligatoires des systèmes d’IA avancés, à l’inclusion de procédures d’« arrêt » instantané et à ce que les développeurs dépensent 30 pour cent de leur budget de recherche sur la sécurité de l’IA.

Les propositions sont plus axées sur le risque existentiel que le décret du président américain Joe Biden sur l’IA publié cette semaine, qui englobe la discrimination algorithmique et les impacts sur le marché du travail, ainsi que le projet de loi sur l’IA de l’Union européenne, qui se concentre sur la protection de droits tels que la vie privée.

La déclaration va également plus loin que le projet de communiqué sur la sécurité de l’IA rédigé par le Premier ministre britannique Rishi Sunak pour ce sommet historique, qui ne va pas jusqu’à appeler les gouvernements à imposer des réglementations spécifiques.

Ces mesures sont une première indication de la position probable de la Chine sur la réglementation mondiale de l’IA à une époque de tensions accrues entre Pékin et Washington sur le leadership mondial des technologies clés.

La déclaration commune diffère par l’accent mis sur les réglementations nationales chinoises en matière d’IA, qui se concentrent sur le contrôle du contenu et la censure. Pékin a récemment annoncé sa propre initiative mondiale de gouvernance de l’IA, qui met en évidence l’injustice des obstacles à l’adoption de l’IA causés par les contrôles américains sur les exportations de puces vers la Chine – une position qui sera fortement contestée par Washington et ses alliés.

Les universitaires à l’origine de la déclaration commune, également signée par des experts occidentaux tels que Yoshua Bengio de l’Université de Montréal, se sont réunis en octobre dans la maison de campagne de Ditchley Park, près d’Oxford. Ils se sont rencontrés pour convenir d’une position avant le sommet à Bletchley Park, une propriété de campagne abritant des décrypteurs pendant la Seconde Guerre mondiale.

“Après avoir tiré les leçons de la gestion des dommages environnementaux, nous devrions travailler ensemble en tant que communauté mondiale pour garantir le progrès sûr de l’IA”, a déclaré Yao, l’un des organisateurs de la déclaration.

Ya-Qin Zhang, doyen de l’université Tsinghua et ancien président du géant de la technologie Baidu, a déclaré qu’il était nécessaire de garantir que la future intelligence artificielle générale soit « sûre et digne de confiance ».

Bien que Pékin ne figure pas sur la liste des participants au premier jour du sommet, des sources proches du gouvernement chinois ont déclaré que le ministère de la Science et de la Technologie y assisterait. Le ministère des Affaires étrangères n’a pas répondu à une demande de commentaires.

Le projet de communiqué du Royaume-Uni, consulté par le Financial Times, ne propose pas de réglementation, mais met en garde contre le « potentiel de dommages graves, voire catastrophiques », posés par les modèles d’IA avancés ou « frontières ».

Sunak souhaite que le communiqué soit signé par des responsables politiques lors du sommet, notamment du Canada, de l’Inde, de la Corée du Sud, du Japon, de Singapour, de l’Espagne, des États-Unis et de l’UE. Des dirigeants technologiques, dont le chef d’OpenAI, Sam Altman, et Elon Musk, directeur de X, anciennement Twitter, sont également attendus.

Dans un discours qui sera prononcé mercredi à Londres, la vice-présidente américaine Kamala Harris devrait affirmer que si « l’IA a le potentiel de faire un bien profond, elle a également le potentiel de causer de profonds dommages, des cyberattaques basées sur l’IA à une échelle au-delà de tout ce que nous avons vu auparavant pour les armes biologiques formulées par l’IA qui pourraient mettre en danger la vie de millions de personnes ».

De tels risques « pourraient mettre en danger l’existence même de l’humanité », devrait dire Harris, selon des extraits de son discours vus par le FT. « Ces menaces sont sans aucun doute profondes et nécessitent une action mondiale. »

Dans le but de créer une dynamique et un héritage précoce pour l’événement, le Royaume-Uni s’apprête à annoncer que la Corée du Sud accueillera le prochain sommet sur la sécurité de l’IA en 2024, selon deux personnes informées de la décision.

Paul Triolo, associé principal au groupe de réflexion Center for Strategic and International Studies à Washington, a déclaré que le choix de la Corée du Sud était un « choix intelligent », car le pays était considéré comme relativement neutre sur la scène internationale.

Reportage supplémentaire de Stefania Palma à Washington

Vidéo : L’IA générative peut-elle être à la hauteur du battage médiatique ? | Technologie FT



ttn-fr-56