À quel point devrions-nous être fatalistes à l’égard de l’IA ?


Restez informé avec des mises à jour gratuites

Une longue lignée d’orateurs prestigieux, allant de Sir Winston Churchill à Dame Iris Murdoch, a prononcé la conférence annuelle Romanes à l’Université d’Oxford, à commencer par William Gladstone en 1892.

Mais rarement, voire jamais, un conférencier n’a pu faire un commentaire aussi saisissant que Geoffrey Hinton l’a fait cette semaine. Le discours du principal chercheur en intelligence artificielle, intitulé de manière provocante L’intelligence numérique remplacera-t-elle l’intelligence biologique ?, conclu : presque certainement, oui. Mais Hinton a rejeté l’idée, courante dans certains cercles technologiques de la côte Ouest, selon laquelle l’humanisme est en quelque sorte « raciste » dans la mesure où il continue d’affirmer la primauté de notre propre espèce sur les formes électroniques d’intelligence. « Nous, les humains, devrions faire de notre mieux pour rester », a-t-il plaisanté.

L’informaticien anglo-canadien est devenu célèbre comme l’un des pionniers des techniques de « deep learning » qui ont révolutionné l’IA, permettant la création de chatbots génératifs d’IA, tels que ChatGPT. Pendant la majeure partie de sa carrière universitaire et chez Google, Hinton a estimé que l’IA ne représentait pas une menace pour l’humanité. Mais le chercheur de 76 ans dit avoir eu une « révélation » l’année dernière et avoir quitté Google pour s’exprimer sur les risques.

Hinton s’est rendu compte que des modèles d’IA de plus en plus puissants pouvaient agir comme des « esprits de ruche », partageant entre eux ce qu’ils avaient appris, leur donnant ainsi un énorme avantage sur les humains. «Cela m’a fait réaliser qu’ils pourraient constituer une meilleure forme d’intelligence», m’a-t-il déclaré lors d’un entretien avant sa conférence.

Il semble toujours fantastique que des lignes de code logiciel puissent menacer l’humanité. Mais Hinton voit deux risques principaux. La première est que les mauvais humains donneront de mauvais objectifs aux machines et les utiliseront à de mauvaises fins, comme la désinformation massive, le bioterrorisme, la cyberguerre et les robots tueurs. En particulier, les modèles d’IA open source, tels que Meta’s Llama, mettent d’énormes capacités entre les mains de mauvaises personnes. «Je pense que c’est complètement fou d’ouvrir ces gros modèles en open source», dit-il.

Mais il prédit que les modèles pourraient également « évoluer » de manière dangereuse, développant une intentionnalité de contrôle. « Si je devais conseiller les gouvernements, je dirais qu’il y a 10 % de chances que ces choses anéantissent l’humanité dans les 20 prochaines années. Je pense que ce serait un chiffre raisonnable », dit-il.

Les arguments de Hinton ont été attaqués sur deux fronts. Premièrement, certains chercheurs affirment que les modèles d’IA générative ne sont rien d’autre que des astuces statistiques coûteuses et que les risques existentiels liés à la technologie relèvent de la « science-fiction fantastique ».

L’éminent savant Noam Chomsky soutient que les humains ont la chance d’avoir un « système d’exploitation » génétiquement installé qui nous aide à comprendre le langage, et qui fait défaut aux machines. Mais Hinton soutient que cela n’a aucun sens étant donné que le dernier modèle d’OpenAI, GPT-4, peut apprendre une langue et faire preuve d’empathie, de raisonnement et de sarcasme. « J’affirme avec force que ces modèles comprennent », a-t-il déclaré lors de sa conférence.

L’autre ligne d’attaque vient de Yann LeCun, scientifique en chef de l’IA chez Meta. LeCun, partisan des modèles open source, affirme que nos systèmes d’IA actuels sont plus stupides que les chats et qu’il est « absurde » de croire qu’ils constituent une menace pour les humains, que ce soit par conception ou par défaut. « Je pense que Yann est un peu naïf. L’avenir de l’humanité repose sur cela », répond Hinton.

Les tons calmes et mesurés du discours de Hinton contrastent fortement avec le sombre fatalisme de son message. Peut-on faire quelque chose pour améliorer les chances de l’humanité ? «J’aurais aimé savoir», répond-il. « Je ne prêche pas une solution particulière, je prêche simplement le problème. »

Il a été encouragé par le fait que le Royaume-Uni ait organisé l’année dernière un sommet sur la sécurité de l’IA à Bletchley Park, stimulant ainsi un débat politique international. Mais depuis lors, dit-il, le gouvernement britannique « a fondamentalement décidé que les profits passent avant la sécurité ». Comme pour le changement climatique, il suggère qu’un changement politique sérieux ne se produira qu’une fois qu’un consensus scientifique sera atteint. Et il admet que cela n’existe pas aujourd’hui. Citant le physicien Max Planck, Hinton ajoute sombrement : « La science progresse un enterrement à la fois. »

Il se dit réconforté par le fait qu’une jeune génération d’informaticiens prenne au sérieux les risques existentiels et suggère que 30 pour cent des chercheurs en IA devraient se consacrer aux questions de sécurité, contre environ 1 pour cent aujourd’hui.

Nous devrions instinctivement nous méfier des chercheurs qui concluent que des recherches supplémentaires sont nécessaires. Mais dans ce cas, étant donné les enjeux et les incertitudes, mieux vaut se dépêcher. Ce qui est extraordinaire dans le débat sur les risques liés à l’IA, c’est le large éventail de points de vue qui s’y opposent. Nous devons trouver un nouveau consensus.

[email protected]

Vidéo : IA : une bénédiction ou une malédiction pour l’humanité ? | Technologie FT



ttn-fr-56