Le chercheur estime que la fin de l’humanité est proche : “Plutôt cinq que 50 ans”

Selon l’expert, le développement de l’intelligence artificielle va désormais trop vite pour qu’il soit possible de garder la situation sous contrôle. Il a une vision très pessimiste de l’avenir de l’humanité.

L’intelligence artificielle ne détruira pas le monde, mais seulement les personnes qui l’habitent, expert et chercheur en intelligence artificielle Eliezer Youdkowsky croit.

Yudkowsky, connu pour ses opinions controversées, a une fois de plus formulé des évaluations sombres sur la manière dont l’intelligence artificielle pourrait devenir le destin de l’humanité.

Le journal britannique The Guardian a interviewé plusieurs experts pour le moins pessimistes quant au développement de l’intelligence artificielle, mais les déclarations de Yudkowsky sont dans une classe à part.

– Si vous m’obligez à estimer les probabilités, je dirais qu’il reste à l’humanité cinq ans plutôt que cinquante. Cela pourrait prendre deux ans, cela pourrait prendre dix ans, frissonna-t-il.

Bien que le développement de l’intelligence artificielle nous émerveille encore devant les progrès technologiques réalisés par l’humanité, Yudkowsky estime que l’émerveillement sera bientôt terminé.

Sa peur est une super-intelligence de niveau divin qui est trop intelligente et trop rapide pour que les humains puissent la contrôler. Selon lui, l’intelligence artificielle ne doit pas être considérée comme un cerveau enfermé dans une boîte qui fait ce qu’on lui demande, car, selon Yudkowsky, une intelligence artificielle plus avancée que l’humain trouvera le moyen de sortir de la boîte.

– Essayez d’imaginer une civilisation extraterrestre qui pense mille fois plus vite que nous, dit-il.

Yudkowsky est le fondateur du Machine Intelligence Research Institute (MIRI) en Californie. Il travaille au développement de l’intelligence artificielle depuis 2001.

L’institut à but non lucratif se concentre sur l’identification des risques liés au développement de l’intelligence artificielle. L’institut vise à promouvoir des méthodes de fonctionnement garantissant que les modèles d’intelligence artificielle restent conviviaux.

Des déclarations fortes avant

Dans son article publié au printemps dernier dans le magazine Time, Yudkowsky espérait, entre autres, bombarder les centres de données afin de stopper l’intelligence artificielle.

– L’intelligence artificielle n’aime pas les gens, mais elle ne déteste pas non plus. Il pense que les atomes dont l’homme est fait pourraient simplement être mieux utilisés ailleurs.

En outre, il a comparé la situation inégale entre l’humanité et l’intelligence artificielle à un enfant de 10 ans jouant aux échecs contre le moteur d’échecs le plus avancé au monde.

Yudkowsky a également fait part de ses sombres vues à Bloomberg l’été dernier.

– Je pense que nous ne sommes pas prêts et nous ne savons pas ce que nous faisons. Je crois que nous mourons tous, a-t-il déclaré.

D’autres s’inquiètent de choses complètement différentes

Cependant, de nombreux experts estiment qu’il n’y a pas lieu de s’inquiéter du développement de l’intelligence artificielle au point de détruire l’humanité.

Au lieu de cela, ils craignent que le fait de peindre des tableaux de menaces existentielles détourne l’attention de problèmes plus concrets liés à la diffusion et au développement de l’intelligence artificielle, comme la diffusion de fausses informations.

Sources: Le gardien, Temps, Bloomberg



ttn-fr-54