Les ordinateurs vont-ils conquérir le monde ?

Par Kai Feldhaus

« Les esprits que j’ai appelés / dont je ne peux plus me débarrasser maintenant » (l’apprenti sorcier de Goethe)

Le message ne contient que 23 mots.

« Contenir le risque d’extinction de l’IA devrait être une priorité mondiale, au même titre que d’autres risques sociétaux tels que les pandémies et la guerre nucléaire.« 

Ce message a été publié par le Center for AI Security de San Francisco et signé par des centaines de scientifiques et d’experts. Parmi eux figurent des chercheurs de premier plan dans le domaine de l’intelligence artificielle (en abrégé : IA), le patron de Google DeepMind, le responsable de la technologie chez Microsoft. Et Sam Altman, dont la société « OpenAI » utilise le programme « ChatGPT » pour apporter l’intelligence artificielle à la société en général afin que tout le monde la comprenne et puisse l’utiliser.

L’IA a donc le potentiel d’anéantir l’humanité. Comme les fléaux et les bombes atomiques. Personne ne dit ça. C’est ce que disent les gens qui ont inventé l’IA, développez-la davantage et gagnez beaucoup d’argent avec.

Des machines plus intelligentes que nous ? Qui reconnaît leur pouvoir et l’utilise contre leur inventeur comme le supercalculateur HAL, qui a tué la moitié de l’équipage du vaisseau spatial Discovery dans le film de 1968 « 2001 : L’Odyssée de l’espace » ?

L’avertissement n’est pas nouveau. Il est « difficile d’imaginer comment vous pouvez empêcher les acteurs malveillants de faire de mauvaises choses avec », a déclaré le pionnier de l’IA Geoffrey Hinton dans le «  New York Times“. Il met en garde contre un « tsunami » de désinformation avec de faux textes, images et vidéos. La personne moyenne sera bientôt « incapable de savoir ce qui est vrai ».

Des experts en IA comme Gary Marcus et Anka Reuel craignent bruyamment » économiste‘ la manipulation des élections et une ‘atmosphère de méfiance totale’. Ils appellent à une autorité internationale pour contrôler l’IA.

Elon Musk et d’autres géants de la tech avaient déjà demandé dans une lettre ouverte fin mars de suspendre le développement rapide de l’IA. Et ainsi de suite jusqu’à ce que l’on soit sûr que les effets seront positifs et les risques gérables. Ils ne semblent pas si sûrs pour le moment.

Doit-on s’inquiéter ? Après la pandémie et la guerre : encore ?

Ce qui s’appliquait au feu, à la roue et à la pénicilline s’applique également à l’IA : elle peut faire énormément progresser l’humanité – si elle est utilisée de manière responsable. L’IA peut rendre les opérations techniquement soutenues plus précises. Elle peut désamorcer des bombes et voler dans l’espace sans blesser personne. Elle peut prendre des décisions rationnelles lorsque les sentiments ne sont pas à sa place. Elle est disponible 24 heures sur 24 lorsque personne ne veut plus être sur la hotline. Il peut reconnaître des modèles dans des quantités gigantesques de données, ce qui peut aider au développement de médicaments, par exemple.

Mais elle ne connaît pas la morale. Alors, comment gérez-vous une technologie qui peut simultanément développer des agents de guerre mortels et guérir le cancer ?

Il nous appartient de gérer de manière responsable le développement et l’utilisation de l’IA afin de récolter les bénéfices de cette technologie tout en minimisant les dangers qu’elle représente.

Le programme d’IA « ChatGPT » m’a écrit cette phrase lorsque je lui ai demandé d’évaluer les opportunités et les dangers de l’IA. Il dit que c’est « à nous ».

Peut-être devrions-nous être un peu inquiets après tout



ttn-fr-27