« Le Parrain de l’IA » quitte Google et met en garde contre les dangers : « C’est terrifiant »


Pendant un demi-siècle, le pionnier Geoffrey Hinton a fait de la technologie derrière ChatGPT et d’autres systèmes d’IA l’œuvre de sa vie. Maintenant, il tire la sonnette d’alarme.

Cade Metz

Geoffrey Hinton était un pionnier de l’intelligence artificielle. En 2012, Hinton et deux de ses étudiants diplômés de l’Université de Toronto ont créé une technologie qui est devenue la base intellectuelle des systèmes d’IA qui, selon les plus grandes entreprises de l’industrie technologique, détiennent la clé de leur avenir.

Mais lundi, il a officiellement rejoint un chœur croissant de critiques qui disent que ces entreprises sont dangereusement engagées dans leur campagne agressive pour créer des produits basés sur l’IA générative. Plus précisément, c’est la technologie qui alimente les chatbots populaires tels que ChatGPT.

Hinton a déclaré qu’il quittait son emploi chez Google, où il a passé plus d’une décennie et est devenu l’une des voix les plus respectées dans le domaine, afin qu’il puisse s’exprimer librement sur les risques de l’IA. Une partie de lui, dit-il, regrette maintenant le travail de sa vie.

« Je me console avec l’excuse commune : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », a déclaré Hinton lors d’une longue entrevue la semaine dernière dans la salle à manger de sa maison de Toronto, à distance de marche de l’endroit où lui et ses étudiants ont vécu leur percée.

Le parcours de Hinton, de pionnier de l’IA à apocalypse, marque un moment remarquable pour l’industrie technologique à son tournant le plus important depuis des décennies. Les leaders de l’industrie technologique pensent que les nouveaux systèmes d’IA pourraient être aussi importants que l’introduction du navigateur Web au début des années 1990 et conduire à des percées dans des domaines allant de la recherche sur les médicaments à l’éducation.

Mais de nombreux initiés de l’industrie craignent de déclencher quelque chose de dangereux sur le monde. L’IA générative peut déjà être un outil de désinformation. Bientôt, cela pourrait constituer un risque pour l’emploi. Et dans le futur, disent les plus concernés, cela pourrait représenter un risque pour l’humanité.

« Il est difficile d’imaginer comment vous pouvez empêcher les forces du mal de l’utiliser pour de mauvaises choses », a déclaré Hinton.

Après que la startup de San Francisco OpenAI a publié une nouvelle version de ChatGPT en mars, plus d’un millier de leaders technologiques et de chercheurs ont signé une lettre ouverte appelant à un moratoire de six mois sur le développement de nouveaux systèmes. Ils l’ont fait parce que, selon eux, les technologies de l’IA posent «des risques profonds pour la société et l’humanité».

Quelques jours plus tard, dix-neuf dirigeants actuels et anciens de l’Association pour l’avancement de l’intelligence artificielle, une association universitaire vieille de quarante ans, ont publié leur propre lettre mettant en garde contre les risques de l’IA. Ce groupe comprenait Eric Horvitz, directeur scientifique de Microsoft, qui utilise la technologie OpenAI dans une variété de produits, y compris le moteur de recherche Bing.

Hinton, souvent appelé « le parrain de l’IA », n’a signé aucune de ces lettres, affirmant qu’il ne critiquerait pas publiquement Google ou d’autres entreprises tant qu’il n’aurait pas quitté son emploi. Le mois dernier, il a annoncé à l’entreprise qu’il démissionnait et s’est entretenu jeudi par téléphone avec Sundar Pichai, PDG de la société mère de Google, Alphabet. Il refuse de discuter publiquement des détails de sa conversation avec Pichai.

Le scientifique en chef de Google, Jeff Dean, a déclaré dans un communiqué : « Nous restons déterminés à adopter une approche responsable de l’IA. Nous apprenons constamment à comprendre les risques émergents tout en innovant avec audace. »

Réseau neuronal

Hinton, un expatrié britannique de 75 ans, est un universitaire dont la carrière a été guidée par ses convictions personnelles sur le développement et l’utilisation de l’IA. En 1972, un récent diplômé de l’Université d’Edimbourg, Hinton a adopté l’idée d’un réseau de neurones. Un réseau de neurones est un système mathématique qui acquiert des compétences en analysant des données. A l’époque, peu de chercheurs y croyaient. Mais cela deviendrait l’œuvre de sa vie.

Dans les années 1980, Hinton était professeur d’informatique à l’Université Carnegie Mellon, mais il a quitté l’université pour le Canada, disant qu’il était réticent à accepter un financement du Pentagone. Après tout, à l’époque, la plupart des recherches sur l’IA aux États-Unis étaient financées par le ministère de la Défense. Hinton s’oppose fermement à l’utilisation de l’IA sur le champ de bataille – ce qu’il décrit comme des « soldats robots ».

En 2012, Hinton et deux de ses étudiants à Toronto, Ilya Sutskever et Alex Krishevsky, ont construit un réseau de neurones capable d’analyser des milliers de photos et d’apprendre à identifier des objets communs, tels que des fleurs, des chiens et des voitures.

Google a ensuite dépensé 44 millions de dollars pour acquérir la société fondée par Hinton et ses deux étudiants. Leur système a conduit à la création de technologies de plus en plus puissantes, dont de nouveaux chatbots tels que ChatGPT et Google Bard. Sutskever est également devenu plus tard scientifique en chef chez OpenAI. En 2018, Hinton et deux autres collaborateurs de longue date ont reçu le prix Turing, également connu sous le nom de « prix Nobel d’informatique », pour leurs travaux sur les réseaux de neurones.

ImageREUTERS

À peu près à la même époque, Google, OpenAI et d’autres sociétés ont commencé à créer des réseaux de neurones qui apprenaient à partir d’énormes quantités de texte numérique. Hinton pensait que c’était un moyen puissant pour les machines de comprendre et de générer le langage, mais qu’il était inférieur à la façon dont les humains interagissaient avec le langage.

Lorsque Google et OpenAI ont construit des systèmes avec des quantités de données beaucoup plus importantes l’année dernière, son opinion a changé. Il croyait toujours que ces systèmes étaient inférieurs au cerveau humain à certains égards, mais il pensait qu’ils éclipsaient l’intelligence humaine dans d’autres. « Peut-être que ce qui se passe dans ces systèmes est en fait bien meilleur que ce qui se passe dans le cerveau. »

À mesure que les entreprises améliorent leurs systèmes d’IA, ils deviennent de plus en plus dangereux, dit-il. « Regardez simplement comment c’était il y a cinq ans et comment c’est maintenant », a-t-il déclaré à propos de la technologie de l’IA. « Prenez la différence, puis extrapolez-la dans le futur. C’est terrifiant.

Concurrence entre géants de la technologie

Jusqu’à l’année dernière, a-t-il dit, Google a agi en tant que « bon intendant » de la technologie et a pris soin de ne rien divulguer qui pourrait causer des dommages. Mais maintenant que Microsoft a complété son moteur de recherche Bing avec un chatbot – un défi pour le cœur de métier de Google – Google se précipite pour déployer le même type de technologie. Les géants de la technologie sont engagés dans une compétition qui peut être impossible à arrêter, a déclaré Hinton.

Sa préoccupation immédiate est qu’Internet soit inondé de fausses photos, vidéos et textes, et que la personne moyenne ne « sache plus ce qui est vrai ».

Il craint également que les technologies d’IA ne finissent par perturber le marché du travail. Aujourd’hui, les chatbots comme ChatGPT complètent souvent les employés humains, mais ils peuvent remplacer les assistants juridiques, les assistants personnels, les traducteurs et autres qui effectuent des tâches clés. « Cela enlève tout le travail fastidieux maintenant », a-t-il déclaré. « Mais cela peut enlever encore plus que cela. »

Avec le temps, il craint que les futures versions de la technologie ne constituent une menace pour l’humanité, car elles apprennent souvent un comportement inattendu à partir des vastes quantités de données qu’elles analysent. Cela devient un problème, a-t-il déclaré, car les particuliers et les entreprises permettent aux systèmes d’IA non seulement de générer leur propre code informatique, mais également d’exécuter ce code eux-mêmes. Par exemple, Hinton craint un jour où les armes vraiment autonomes – ces robots tueurs – deviendront une réalité.

« L’idée que ce truc pourrait en fait devenir plus intelligent que les humains – à peine quelques personnes y croyaient », a-t-il déclaré. «Mais la plupart des gens pensaient que ce point était loin. Je le pensais aussi. Je pensais que cela prendrait trente à cinquante ans ou même plus. Bien sûr, je ne le pense plus. »

De nombreux autres experts, dont nombre de ses étudiants et collègues, affirment que cette menace est hypothétique. Mais Hinton pense que la bataille entre Google et Microsoft et d’autres dégénérera en une course mondiale qui ne s’arrêtera pas, du moins pas sans une certaine forme de réglementation mondiale.

Mais cela peut être impossible, dit Hinton. Contrairement aux armes nucléaires, il dit qu’il n’y a aucun moyen de savoir si des entreprises ou des pays travaillent secrètement sur la technologie. Le meilleur espoir est que les meilleurs scientifiques du monde travaillent ensemble sur les moyens de maîtriser la technologie. « Je ne pense pas qu’ils devraient étendre cela davantage jusqu’à ce qu’ils comprennent s’ils peuvent le maîtriser. »

Hinton a déclaré avoir cité Robert Oppenheimer, qui a dirigé la recherche américaine sur la bombe nucléaire, lorsque les gens lui ont demandé comment il pouvait travailler sur une technologie aussi potentiellement dangereuse. « Quand vous voyez quelque chose qui est techniquement si bien assemblé, vous allez de l’avant et faites-le. »

Hinton ne dit plus cela.

© Le New York Times



ttn-fr-31