« L’intelligence artificielle pourrait signifier la fin de l’humanité » : les experts comparent ses dangers aux pandémies et aux guerres nucléaires

Un groupe de chefs d’entreprise et de scientifiques a appelé mardi à faire du « risque d’extinction de l’intelligence artificielle » une priorité mondiale, « aux côtés d’autres risques sociétaux tels que les pandémies et la guerre nucléaire ». Un professeur de la KU Leuven a également signé la déclaration.

« Réduire le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques pour la société tels que les pandémies et les guerres nucléaires. » L’American Center for AI Safety a diffusé mardi cette courte déclaration, comprenant des dizaines de noms de scientifiques et de hauts dirigeants d’entreprises technologiques. Sam Altman, le fondateur du chatbot IA ChatGPT, et des cadres supérieurs de Microsoft et Google, entre autres, ont signé l’avertissement.

Le nom du professeur belge Yves Moreau, affilié à la KU Leuven, y figure également. Il est spécialisé dans l’intelligence artificielle en génétique. Moreau estime que le développement de l’IA devrait être ralenti pendant un certain temps car les conséquences du progrès technologique sur l’homme ne sont pas claires.

REGARDEZ AUSSI. Par exemple, Google prédira les inondations en utilisant l’intelligence artificielle

« Nous avons assisté ces derniers mois à une percée technologique puissante dont nous ne pouvons pas encore évaluer les risques et les conséquences », explique Moreau. « Cela a été un choc, même pour les spécialistes de l’IA. » Les modèles d’IA se sont avérés avoir une capacité beaucoup plus importante que prévu. On ignore encore quelles pourraient en être les conséquences, souligne Moreau, par exemple en termes de diffusion de la désinformation ou pour le contenu des emplois.

Moreau préconise de freiner et de prendre des mesures. « La réglementation est un processus important, mais peut-être insuffisant. Il y a un besoin pour un changement de culture parmi les personnes qui développent la technologie. Maintenant, les gens le font parce que c’est cool ou parce qu’il y a de l’argent à gagner. Cependant, nous devrions penser davantage à qui et comment nous fabriquons la technologie. Les chercheurs doivent prendre plus de responsabilités.



ttn-fr-34