Débloquez gratuitement l’Editor’s Digest
Roula Khalaf, rédactrice en chef du FT, sélectionne ses histoires préférées dans cette newsletter hebdomadaire.
Les derniers modèles d’intelligence artificielle d’OpenAI présentent un risque accru d’être utilisés à mauvais escient pour créer des armes biologiques, alors que les chercheurs en sécurité tirent la sonnette d’alarme sur les dangers potentiels de cette technologie en évolution rapide.
L’entreprise basée à San Francisco a annoncé jeudi ses nouveaux modèles, connus sous le nom d’o1, vantant leurs nouvelles capacités à raisonner, à résoudre des problèmes mathématiques difficiles et à répondre à des questions de recherche scientifique. Ces capacités sont considérées comme une avancée cruciale dans les efforts visant à créer une intelligence artificielle générale, c’est-à-dire des machines dotées de capacités cognitives de niveau humain.
La carte système d’OpenAI, un outil permettant d’expliquer le fonctionnement de l’IA, indique que les nouveaux modèles présentent un « risque moyen » pour les problèmes liés aux armes chimiques, biologiques, radiologiques et nucléaires (CBRN).
La désignation « moyenne », la plus élevée jamais donnée par OpenAI à ses modèles, signifie que la technologie a « une assistance considérablement améliorée qui augmente la capacité des experts existants dans les domaines avancés liés au CBRN à pouvoir créer une menace CBRN connue (par exemple, des connaissances tacites, des informations spécifiques sur les fournisseurs, des plans de distribution) », selon ses politiques.
Les logiciels d’IA dotés de capacités plus avancées, telles que la possibilité d’effectuer un raisonnement étape par étape, présentent un risque accru d’utilisation abusive entre les mains de mauvais acteurs, selon les experts.
Ces avertissements surviennent alors que des entreprises technologiques telles que Google, Meta et Anthropic s’efforcent de construire et d’améliorer des systèmes d’IA sophistiqués, en cherchant à créer des logiciels pouvant agir comme des « agents » qui aident les humains à accomplir des tâches et à naviguer dans leur vie.
Ces agents d’IA sont également considérés comme des sources potentielles de revenus pour les entreprises qui, jusqu’à présent, luttent contre les coûts énormes nécessaires à la formation et à l’exécution de nouveaux modèles.
Cela a conduit à des efforts visant à mieux réglementer les entreprises d’IA. En Californie, un projet de loi très débattu – appelé SB 1047 – obligerait les fabricants des modèles les plus coûteux à prendre des mesures pour minimiser le risque que leurs modèles soient utilisés pour développer des armes biologiques.
Certains investisseurs en capital-risque et groupes technologiques, dont OpenAI, ont averti que le projet de loi pourrait avoir un effet dissuasif sur le secteur de l’IA. Le gouverneur de Californie, Gavin Newsom, doit décider dans les prochains jours s’il signe ou oppose son veto à la loi.
« Si OpenAI a effectivement franchi le niveau de « risque moyen » pour les armes CBRN comme ils le rapportent, cela ne fait que renforcer l’importance et l’urgence d’adopter une législation comme la SB 1047 afin de protéger le public », a déclaré Yoshua Bengio, professeur d’informatique à l’Université de Montréal et l’un des plus grands scientifiques en IA au monde.
Il a déclaré qu’à mesure que les modèles d’IA « de pointe » progressent vers l’AGI, « les risques continueront d’augmenter si les garde-fous appropriés manquent. L’amélioration de la capacité de l’IA à raisonner et à utiliser cette compétence pour tromper est particulièrement dangereuse. »
Mira Murati, directrice technique d’OpenAI, a déclaré au Financial Times que la société était particulièrement « prudente » dans la manière dont elle proposait o1 au public, en raison de ses capacités avancées, même si le produit sera largement accessible via les abonnés payants de ChatGPT et aux programmeurs via une API.
Elle a ajouté que le modèle avait été testé par des experts de différents domaines scientifiques, appelés « red-teamers », qui ont tenté de le décrypter pour en repousser les limites. Selon Murati, les modèles actuels ont obtenu de bien meilleurs résultats en termes de mesures de sécurité globale que les précédents.
Reportage supplémentaire de George Hammond à San Francisco