Les entreprises d’IA acceptent que le gouvernement teste leur technologie


Restez informé avec des mises à jour gratuites

Les principales sociétés d’intelligence artificielle ont accepté de permettre aux gouvernements, notamment au Royaume-Uni, aux États-Unis et à Singapour, de tester leurs derniers modèles en matière de sécurité nationale et d’autres risques avant de les communiquer aux entreprises et aux consommateurs.

Des entreprises telles qu’OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft et Meta ont signé jeudi un document « historique » mais non juridiquement contraignant, clôturant un sommet de deux jours sur la sécurité de l’IA au Royaume-Uni.

Le document a été signé par des gouvernements parmi lesquels figurent également l’Australie, le Canada, l’UE, la France, l’Allemagne, l’Italie, le Japon et la Corée du Sud. La Chine n’était pas signataire.

Un groupe international d’experts présentera également un rapport annuel sur l’évolution des risques liés à l’IA, notamment les préjugés, la désinformation et les risques « existentiels » plus extrêmes, comme l’aide au développement d’armes chimiques.

« Je crois que les réalisations de ce sommet feront pencher la balance en faveur de l’humanité », a déclaré Rishi Sunak, Premier ministre britannique et hôte de l’événement inaugural. « Nous travaillerons ensemble pour tester la sécurité des nouveaux modèles d’IA avant leur sortie. »

« Nous sommes en avance sur tout autre pays dans le développement des outils et des capacités nécessaires pour assurer la sécurité des personnes », a déclaré Sunak depuis Bletchley Park, le bâtiment qui abritait les décrypteurs de la Seconde Guerre mondiale.

La vice-présidente américaine Kamala Harris et la présidente de la Commission européenne Ursula von der Leyen étaient présentes au sommet, qui a également réuni d’autres pays alliés pour discuter de questions sensibles de sécurité nationale.

Sunak, lorsqu’on lui a demandé si le Royaume-Uni devait aller plus loin en établissant des réglementations contraignantes, a déclaré que l’élaboration et la promulgation d’une législation « prennent du temps ».

« Il est essentiel que nous établissions des moyens d’évaluer et de relever les défis actuels que présente l’IA, ainsi que les risques potentiels liés à une technologie qui n’existe pas encore », a déclaré Nick Clegg, président des affaires mondiales chez Meta.

Le gouvernement américain a publié lundi un décret constituant la mesure la plus large prise par l’administration pour lutter contre les menaces liées à l’IA. Les États-Unis ont également annoncé cette semaine qu’ils prévoyaient de créer leur propre institut pour contrôler l’IA. Le Royaume-Uni a conclu des partenariats avec l’US AI Safety Institute et avec Singapour pour collaborer aux tests de sécurité de l’IA.

Le rapport sur les risques liés à l’IA, accepté par 20 pays, sera calqué sur le Groupe d’experts intergouvernemental sur l’évolution du climat, le premier étant présidé par Yoshua Bengio, professeur d’informatique à l’Université de Montréal.

Un groupe de travail du gouvernement britannique sur l’IA a effectué une série de tests de sécurité sur les principaux modèles d’IA afin d’évaluer les défauts potentiels ou les risques d’abus, selon plusieurs personnes présentes lors de l’une des sessions du sommet. Celles-ci incluaient la manière dont les modèles pourraient présenter une plus grande capacité à diffuser de la désinformation, à coordonner des cyberattaques ou à planifier des attaques à l’aide d’armes biologiques et chimiques.

Jack Clark, co-fondateur de la start-up d’IA Anthropic, a déclaré au Financial Times qu’il fallait un « arbitre » externe et indépendant pour tester la sécurité des modèles en développement.

« Nous ferons toujours nos propres tests », a-t-il déclaré, « mais je souhaite vraiment qu’il y ait une autorité de test légitime tierce à laquelle nous pouvons lancer des tests et entendre les résultats. »

Inscrivez-vous au Sommet FT sur l’avenir de l’IA les 15 et 16 novembre

Vidéo : L’IA générative peut-elle être à la hauteur du battage médiatique ? | Technologie FT



ttn-fr-56