Le sommet de Sunak sur l’IA marque un « coup d’État diplomatique » mais révèle les tensions mondiales


Lors du sommet de Rishi Sunak sur l’intelligence artificielle cette semaine, un délégué a déclaré que le Premier ministre britannique avait réussi un « coup diplomatique » en amenant les responsables américains et chinois à s’unir sur la nécessité de contrôler l’IA.

Au milieu des tensions commerciales et technologiques accrues entre Washington et Pékin, le délégué chinois, le Dr Wu Zhaohui, a surpris certains lors de l’événement de deux jours à Bletchley Park, en Angleterre, en reconnaissant qu’ils étaient unis par les valeurs communes de « démocratie » et de « liberté » dans le monde. lutter contre les usages malveillants de l’IA.

De larges engagements de la part de 28 pays à travailler ensemble pour lutter contre les risques existentiels liés à l’IA avancée – ainsi qu’à attirer des personnalités technologiques de premier plan telles que Tesla et le chef de X, Elon Musk, à Sam Altman d’OpenAI – ont conduit de nombreuses personnes à dire que le sommet sur l’IA de Sunak avait été un succès.

« C’est un excellent exemple du pouvoir fédérateur du Royaume-Uni, car vous avez réuni toutes ces personnes sous un même toit », a déclaré Jean Carberry, secrétaire adjoint à la politique numérique du ministère irlandais des Entreprises, du Commerce et de l’Emploi. « Cela a été un véritable catalyseur. »

Mais le sommet de Bletchley Park a également mis en lumière des tensions sous-jacentes autour du développement de l’IA. La vice-présidente américaine Kamala Harris a tenu une conférence de presse à Londres lors du sommet, où elle a exprimé l’intention de son pays d’écrire ses propres règles du jeu.

« Soyons clairs : en matière d’IA, l’Amérique est un leader mondial. Ce sont les entreprises américaines qui dominent le monde en matière d’innovation en matière d’IA. C’est l’Amérique qui peut catalyser l’action mondiale et construire un consensus mondial d’une manière qu’aucun autre pays ne peut faire », a déclaré Harris avec insistance.

Plus tôt dans la semaine, le président Joe Biden a publié un décret obligeant les entreprises d’IA dont les modèles pourraient menacer la sécurité nationale américaine à partager la manière dont elles assurent la sécurité de leurs outils.

À Bletchley, les États-Unis ont également annoncé leur intention de créer leur propre institut de sécurité de l’IA, composé d’experts chargés de surveiller les risques, qui travaillerait en étroite collaboration avec un organisme similaire créé par le Royaume-Uni, qui ambitionne de jouer un rôle mondial plus important dans la recherche sur les risques liés à l’IA.

Un homme politique présent a déclaré que l’accaparement des terres par les États-Unis était « inévitable ». « L’IA est la prochaine grande nouveauté, et personne ne va faire le mort et dire que vous prenez le relais », ont-ils déclaré. « La Chine ne permettra pas que cela se produise, et certainement pas les États-Unis. »

La personne a ajouté que l’une des raisons pour lesquelles les Chinois avaient été si souples dans l’élaboration d’une position commune sur la gouvernance mondiale de l’IA était que « jouer gentiment » et agir en tant que « partenaire responsable » pourrait contribuer à favoriser les discussions sur l’assouplissement des barrières commerciales imposées. par les États-Unis plus tard.

Une autre source de débat concernait la question de savoir si les modèles d’IA sophistiqués pouvaient être « ouverts » ou « fermés ». Certaines entreprises telles que Meta et des start-ups comme Hugging Face, Mistral et Stability AI construisent des systèmes d’IA open source, ce qui signifie que les détails techniques du nouveau modèle seront rendus publics.

Cela contraste avec l’approche de concurrents tels qu’OpenAI et Google, soutenus par Microsoft, qui créent ce qu’on appelle une boîte noire dans laquelle les données et le code utilisés pour créer des modèles d’IA ne sont pas accessibles à des tiers.

Les partisans des modèles fermés affirment qu’ils peuvent mieux se conformer à des réglementations strictes, contrôler qui y a accès et empêcher qu’ils ne tombent entre les mains d’acteurs malveillants. Mais d’autres soutiennent que les modèles ouverts contribueront à garantir que les pays et les groupes universitaires moins bien dotés en ressources puissent développer leurs propres systèmes d’IA.

« Dans ces discussions, il y a des objectifs contradictoires. Et je vois des pays. . . qui veulent s’assurer qu’ils peuvent rattraper l’état de l’art. . . en disant des choses comme « nous devrions tout partager » », a déclaré Yoshua Bengio, directeur scientifique de l’Institut des algorithmes d’apprentissage de Montréal et pionnier de l’apprentissage profond, la technologie derrière les modèles d’IA sophistiqués d’aujourd’hui.

Mais il a ajouté : « L’open source des modèles les plus solides est . . . dangereux du point de vue de la sécurité. Une fois que vous pouvez accéder aux poids du système, vous pouvez facilement les transformer en quelque chose de malveillant.

Emad Mostaque, fondateur et directeur général de la société d’IA d’image Stability AI, qui fonctionne sur une technologie open source, a déclaré que la France s’était particulièrement prononcée en faveur d’un accès accru à des modèles d’IA sophistiqués, en partie à cause de sa start-up locale d’IA Mistral, qui construit des logiciels open source.

« Mais en fin de compte, presque tous les responsables gouvernementaux à qui je parle se rendent compte que les gouvernements doivent fonctionner en toute transparence. Dans les secteurs réglementés, il ne peut pas y avoir de boîtes noires », a-t-il déclaré. « Il y a cette question de sécurité nationale : peut-on vraiment compter sur quelqu’un d’autre pour mettre au point cette technologie ? »

Musk, qui a créé sa propre société X.AI et qui a déjà plaidé en faveur d’un moratoire sur le développement de systèmes d’IA plus avancés, a déclaré à Sunak qu’il avait « un léger parti pris en faveur de l’open source » car il a tendance à être en retard de six par rapport aux sources fermées. 12 mois et « au moins tu vois ce qui se passe ».

« Cette focalisation sur une pause et les risques catastrophiques de l’IA convient à Musk car il est en retard [on developing AI] », a déclaré une personne qui a assisté à une séance au sommet avec le milliardaire. Ils ont ajouté que lorsque « certaines des plus grandes entreprises mettent l’accent sur des conséquences catastrophiques, il existe des risques de capture réglementaire », où les législateurs sont influencés par les intérêts commerciaux au-dessus des préoccupations du grand public.

Les pays en développement, exclus des bienfaits des révolutions technologiques précédentes, ont cherché à s’engager à ce que cela ne se reproduise plus.

« De nombreux pays, notamment dans les pays du Sud, trouvent inabordable de participer à l’économie numérique mondiale », a déclaré Rajeev Chandrasekhar, ministre indien de l’électronique et de l’informatique. « Ce temps est révolu. Les avantages de la technologie devraient être accessibles à tous. . . tous les pays du monde. »

Vidushi Marda, co-fondateur de l’organisation indienne à but non lucratif REAL ML, qui était présent, a déclaré qu’« il était encourageant de voir que l’accent mis d’abord sur la réglementation au niveau national était une priorité émergente », afin d’éviter de répéter les erreurs historiques.

Les prochaines éditions du sommet se tiendront en Corée du Sud dans six mois, suivies par la France dans un an. Alors que l’événement de Bletchley s’est concentré sur l’alignement sur ce qui doit être fait, les participants ont déclaré que les deux prochains se concentreraient sur l’action : une réglementation concrète et des propositions de recherche sur la manière dont les modèles d’IA pourraient être évalués.

Marija Pejčinović Burić, secrétaire générale du Conseil de l’Europe, a déclaré : « Le défi de l’IA est si grand et son développement est exponentiel qu’il n’y a pas de luxe pour le mettre de côté et se concentrer sur autre chose. »



ttn-fr-56