Les machines se comportent mal – pourquoi l’IA ne peut jamais être morale


Daniele Pucci de l’Institut italien de technologie prend une photo du robot icub 3, conçu pour tester les algorithmes d’IA incarnée © Marco Bertorello/AFP/Getty Images

Sur une liste des personnalités les plus marquantes du XXe siècle, plusieurs noms sautent aux yeux : Albert Einstein, Mahatma Gandhi et Franklin D Roosevelt du côté positif du grand livre et ce trio de tyrans, Hitler, Staline et Mao, qui ont fait un mal inexplicable .

Mais en Machines qui se comportent mal, Toby Walsh démontre de manière convaincante que 1 000 ans dans le futur (en supposant que l’humanité survive aussi longtemps), la réponse sera parfaitement claire : Alan Turing. En tant que pionnier de l’informatique et fondateur de l’intelligence artificielle, Turing sera considéré comme la force intellectuelle motrice derrière la « technologie omniprésente et critique » qui imprègnera ensuite de manière invisible tous les aspects de nos vies. Le mathématicien IJ Good, un autre briseur de code à Bletchley Park pendant la Seconde Guerre mondiale, a prédit que l’invention d’une « machine ultra-intelligente », telle qu’imaginée par Turing, conduirait à une « explosion de l’intelligence ».

« Ainsi, la première machine ultra-intelligente est la dernière invention que l’homme ait jamais besoin de faire, à condition que la machine soit suffisamment docile pour nous dire comment la garder sous contrôle », écrivait Good en 1965. Good a ensuite conseillé Stanley Kubrick sur la fabrication de le film 2001 : L’odyssée de l’espacequi a présenté aux téléspectateurs les merveilles et les dangers d’une telle machine ultra-intelligente, nommée HAL 9000.

Bien qu’il soit fascinant de spéculer sur la façon dont l’intelligence artificielle aura changé le monde d’ici 3022, Walsh concentre l’essentiel de son attention sur l’ici et maintenant. Les ordinateurs que nous avons aujourd’hui ne correspondent peut-être pas encore à l’intelligence d’un enfant de deux ans, affirme-t-il, mais l’intelligence artificielle est déjà utilisée à des fins impressionnantes et sans cesse croissantes : détection de logiciels malveillants, vérification des contrats légaux pour les erreurs, identification le chant des oiseaux, la découverte de nouveaux matériaux et (de manière controversée) la prédiction du crime et la planification des patrouilles de police. L’objectif de Walsh est de nous faire réfléchir aux conséquences imprévues de l’utilisation d’une technologie aussi puissante de toutes ces manières, et d’autres.

En tant que professeur d’IA à l’Université de Nouvelle-Galles du Sud, Walsh est enthousiasmé par la puissance et la promesse de la technologie. Les ordinateurs peuvent aider à automatiser les travaux sales, difficiles, ennuyeux et dangereux inadaptés aux humains. La police indienne a utilisé la technologie de reconnaissance faciale pour identifier 10 000 enfants disparus. L’IA est également utilisée pour lutter contre l’urgence climatique en optimisant l’offre et la demande d’électricité, en prédisant les conditions météorologiques et en maximisant la capacité de l’énergie éolienne et solaire. Mais Walsh insiste sur le fait que nous devons réfléchir très attentivement avant de permettre à une telle technologie de s’immiscer dans tous les coins de nos vies. Les entreprises Big Tech qui déploient l’IA sont motivées par le profit plutôt que par le bien de la société.

La section la plus intéressante et la plus originale du livre concerne la question de savoir si les machines peuvent fonctionner de manière morale. L’une des expériences les plus importantes et les plus fascinantes dans ce domaine est la Machine morale projet mené par le Media Lab du Massachusetts Institute of Technology. Cette plateforme numérique a été utilisée pour crowdsourcer les choix moraux des utilisateurs de 40mn, en les interrogeant sur les processus de prise de décision des voitures autonomes, par exemple.

Comment les utilisateurs réagissent-ils au dilemme moral connu sous le nom de « problème du chariot », imaginé par la philosophe anglaise Philippa Foot en 1967. Changeriez-vous le cours d’un chariot en fuite pour l’empêcher de tuer cinq personnes sur une piste au prix de tuer une autre personne sur un autre éperon ? Dans les sondages, environ 90 % des gens disent qu’ils sauveraient les cinq vies au prix d’une seule.

Mais, comme de nombreux informaticiens, Walsh est sceptique quant à l’applicabilité de tels choix moraux et s’ils pourraient jamais être écrits dans le système d’exploitation d’une machine. Premièrement, nous disons souvent une chose et en faisons une autre. Deuxièmement, certaines des choses que nous faisons, nous savons que nous ne devrions pas (commander de la crème glacée lorsque nous sommes au régime). Troisièmement, le crowdsourcing moral dépend des choix d’un groupe autosélectionné d’internautes, qui ne reflètent pas la diversité des différentes sociétés et cultures. Enfin, les décisions morales prises par les machines ne peuvent pas être la moyenne floue de ce que les gens ont tendance à faire. La morale change : les sociétés démocratiques ne refusent plus aux femmes le droit de vote ou n’asservissent plus les gens, comme elles le faisaient autrefois.

«Nous ne pouvons pas aujourd’hui construire des machines morales, des machines qui capturent nos valeurs humaines et qui peuvent être tenues responsables de leurs décisions. Et il y a de nombreuses raisons pour lesquelles je soupçonne que nous ne pourrons jamais le faire », écrit Walsh.

Mais cela ne signifie pas que les entreprises qui déploient l’IA doivent se déchaîner. Les législateurs ont la responsabilité de délimiter où il est acceptable que les algorithmes se substituent à la prise de décision humaine et où ce ne l’est pas. Walsh est lui-même un militant actif contre l’utilisation de robots tueurs ou de systèmes d’armes autonomes meurtriers. À ce jour, 30 pays ont demandé à l’ONU d’interdire ces armes, bien qu’aucune des principales puissances militaires mondiales n’en fasse encore partie.

Pour un technologue, Walsh insiste de manière rafraîchissante sur la primauté de la prise de décision humaine, même si elle est si souvent imparfaite. «Il serait peut-être préférable d’avoir une empathie humaine et une responsabilité humaine malgré la faillibilité humaine. Et cela pourrait être préférable à la logique des machines froides, irresponsables et un peu moins faillibles », conclut-il.

Les machines se comportent mal: La moralité de l’IA de Toby Walsh, Silex £20, 288 pages

Jean Thornhill est l’éditeur d’innovation du FT

Rejoignez notre groupe de livres en ligne sur Facebook à FT Livres Café



ttn-fr-56