Des entreprises américaines et des experts chinois engagés dans une diplomatie secrète sur la sécurité de l’IA


Restez informé avec des mises à jour gratuites

Les sociétés américaines d’intelligence artificielle OpenAI, Anthropic et Cohere se sont engagées dans une diplomatie secrète avec des experts chinois en IA, dans un contexte d’inquiétude partagée quant à la manière dont cette puissante technologie pourrait propager de la désinformation et menacer la cohésion sociale.

Selon plusieurs personnes ayant une connaissance directe, deux réunions ont eu lieu à Genève en juillet et octobre de l’année dernière, auxquelles ont participé des scientifiques et des experts politiques des groupes américains d’IA, ainsi que des représentants de l’Université Tsinghua et d’autres institutions soutenues par l’État chinois.

Les participants ont déclaré que les discussions avaient permis aux deux parties de discuter des risques liés aux technologies émergentes et d’encourager les investissements dans la recherche sur la sécurité de l’IA. Ils ont ajouté que l’objectif ultime était de trouver une voie scientifique pour développer en toute sécurité une technologie d’IA plus sophistiquée.

« Nous n’avons aucun moyen d’établir des normes internationales en matière de sécurité et d’alignement de l’IA sans un accord entre cet ensemble d’acteurs », a déclaré une personne présente aux négociations. « Et s’ils sont d’accord, il est beaucoup plus facile d’amener les autres avec eux. »

Ces négociations inédites constituent un signe rare de coopération sino-américaine dans un contexte de course à la suprématie entre les deux grandes puissances dans le domaine des technologies de pointe telles que l’IA et l’informatique quantique. Actuellement, Washington a bloqué les exportations américaines de puces hautes performances fabriquées par Nvidia, nécessaires au développement de logiciels d’IA sophistiqués.

Mais le sujet de la sécurité de l’IA est devenu un point d’intérêt commun entre les développeurs de technologies des deux pays, compte tenu des risques existentiels potentiels pour l’humanité.

Les réunions de Genève ont été organisées en connaissance de cause de la Maison Blanche ainsi que des responsables des gouvernements britannique et chinois, selon un négociateur présent, qui a refusé d’être nommé.

« La Chine soutient les efforts visant à discuter de la gouvernance de l’IA et à développer les cadres, normes et standards nécessaires basés sur un large consensus », a déclaré l’ambassade de Chine au Royaume-Uni.

« La Chine est prête à mener des communications, des échanges et une coopération pratique avec diverses parties sur la gouvernance mondiale de l’IA, et à garantir que l’IA se développe de manière à faire progresser la civilisation humaine. »

Les pourparlers ont été organisés par le Groupe Shaikh, une organisation de médiation privée qui facilite le dialogue entre les acteurs clés dans les régions en conflit, notamment au Moyen-Orient.

« Nous avons vu une opportunité de réunir les principaux acteurs américains et chinois travaillant sur l’IA. Notre objectif principal était de souligner les vulnérabilités, les risques et les opportunités liés au large déploiement de modèles d’IA partagés à travers le monde », a déclaré Salman Shaikh, directeur général du groupe.

« Reconnaître ce fait peut, à notre avis, devenir le fondement d’un travail scientifique collaboratif, conduisant à terme à des normes mondiales concernant la sécurité des modèles d’IA. »

Les personnes impliquées dans les pourparlers ont déclaré que les sociétés chinoises d’IA telles que ByteDance, Tencent et Baidu n’y avaient pas participé ; Bien que Google DeepMind ait été informé des détails des discussions, il n’y a pas assisté.

Au cours des discussions, les experts en IA des deux parties ont débattu des domaines d’engagement dans la coopération technique, ainsi que de propositions politiques plus concrètes qui ont alimenté les discussions autour de la réunion du Conseil de sécurité de l’ONU sur l’IA en juillet 2023 et du sommet britannique sur l’IA en novembre dernier. année.

Le succès des réunions a conduit à planifier de futures discussions qui se concentreront sur des propositions scientifiques et techniques sur la manière d’aligner les systèmes d’IA avec les codes juridiques et les normes et valeurs de chaque société, selon le négociateur présent.

Les appels à la coopération entre les principales puissances se multiplient pour faire face à l’essor de l’IA.

En novembre, des scientifiques chinois travaillant sur l’intelligence artificielle se sont joints à des universitaires occidentaux pour appeler à des contrôles plus stricts sur cette technologie, en signant une déclaration avertissant que l’IA avancée poserait un « risque existentiel pour l’humanité » dans les décennies à venir.

Le groupe, qui comprenait Andrew Yao, l’un des plus éminents informaticiens chinois, a appelé à la création d’un organisme de réglementation international, à l’enregistrement et à l’audit obligatoires des systèmes d’IA avancés, à l’inclusion de procédures d’« arrêt » instantané et à ce que les développeurs dépensent 30 pour cent de leur budget de recherche sur la sécurité de l’IA.

OpenAI, Anthropic et Cohere ont refusé de commenter leur participation. L’Université Tsinghua n’a pas immédiatement répondu à une demande de commentaire.

Cet article a été modifié pour préciser dans le sous-titre qu’Anthropic et non Inflexion étaient impliqués dans les pourparlers de Genève.



ttn-fr-56