L’intelligence artificielle Les grandes entreprises qui développent l’intelligence artificielle (IA) alertent elles-mêmes sur les dangers de leur technologie. Est-ce une contradiction ou une diversion astucieuse ?

C’était seulement 22 mots, mais de très gros mots. Rien de moins que la survie de l’humanité serait en jeu.

Trois des principaux développeurs d’intelligence artificielle (IA) ont publié mardi une déclaration mettant en garde contre le danger de leur propre produit. En un peu plus de mots en néerlandais : « Réduire le risque d’extinction de l’IA devrait être une priorité mondiale, aux côtés d’autres risques qui affectent la société dans son ensemble, tels que les pandémies et les guerres nucléaires. »

Plus de 350 personnes, dont beaucoup travaillent elles-mêmes sur l’IA, ont maintenant signé la déclaration. Une lettre ouverte inquiète du même trimestre est déjà parue en mars, appelant à une pause d’au moins six mois dans le développement de l’IA. Les entreprises développant l’IA seraient « empêtrées dans une course incontrôlable pour développer et déployer des cerveaux numériques de plus en plus puissants que personne ne peut comprendre, prédire ou contrôler de manière fiable ».

Une différence importante avec cette lettre ouverte est que la déclaration de mardi a été signée par nul autre que les hauts dirigeants de trois entreprises qui sont à la pointe du développement de l’IA. En plus de Sam Altman d’OpenAI, la société à l’origine du bot linguistique ChatGPT, il s’agit de Demis Hassabis de Google DeepMind et de Dario Amodei de la seule société d’intelligence artificielle Anthropic âgée de deux ans.

Cela ressemble à une étrange contradiction. Comme si les patrons de l’IA disaient : « Attention à nous, on joue avec le feu ! » Deux soi-disant « parrains de l’IA », Geoffrey Hinton et Yoshua Bengio, ont également apposé leur nom sur la déclaration.

Ce qui est encore plus remarquable dans le dernier avertissement d’une éventuelle catastrophe, c’est que, bien qu’il sonne une très grande alarme, il se compose d’une seule phrase. Il ne dit pas exactement quels sont ces grands dangers, ni comment nous pouvons les éviter.

Cerveau non humain

La lettre ouverte en mars c’était le cas. Il a averti que l’IA pourrait inonder les médias de propagande et de désinformation. Ces « cerveaux non humains » pourraient éventuellement nous rendre superflus. Que tous les emplois, « même les plus satisfaisants », pourraient être automatisés, et que nous « perdrions le contrôle de notre civilisation ». Des recherches plus approfondies sur les dangers ont été préconisées, ainsi qu’une réglementation, pour arriver à une intelligence artificielle sûre, fiable, transparente et même, comme s’il s’agissait d’un être humain, « loyale ».

Ces derniers mois, les critiques de l’IA ont également décrit d’autres scénarios sombres. L’IA conduirait à un tsunami de piratages de presque toutes les formes de sécurité numérique que nous connaissons aujourd’hui. Les systèmes d’armes autonomes pourraient conduire à une révolution dans la guerre avec l’IA. Fabriquer des armes chimiques et biologiques serait soudainement à la portée de tous. Et en arrière-plan, il y a toujours le vague spectre de systèmes informatiques aux caractéristiques humaines qui éclipsent le véritable humain.

Les critiques soulèvent la question de la sincérité des préoccupations des dirigeants des entreprises d’IA, si en même temps ils continuent à travailler à toute vitesse et à un rythme rapide sur le développement ultérieur de l’intelligence artificielle et de ses applications, telles que le chatbot ChatGPT. Après tout, ceux-ci sont mis à la disposition du public en masse sans restriction et sans examen externe.

L’une de ces critiques est Emily Bender, linguiste et experte des modèles dits de grande langue (LLM), qui sont utilisés pour le développement de l’IA. Elle et ses partisans soulignent les dangers de l’IA depuis des années. Mais pas en avertissant de la disparition de l’humanité dans un nombre inconnu d’années, mais en attirant l’attention sur les effets négatifs que les entreprises d’IA causent déjà. Elle voit la diffusion de scénarios apocalyptiques par le secteur comme une diversion calculée.

Attention, un monstre !

Mardi, Bender a écrit sur le réseau social M astodon : « Quand les gars de l’IA crient ‘Attention, un monstre !’ – pour distraire chacun de ses pratiques (vol de données, gaspillage d’énergie, renforcement des préjugés, pollution de l’écosystème de l’information) – alors il faudrait lui arracher son masque. Bender dénonce également la concentration du savoir, de l’argent et du pouvoir entre les mains d’un petit nombre d’entreprises et de leurs dirigeants et les inégalités sociales que cela renforce. Et la présentation de l’IA comme un système aux caractéristiques humaines ignorerait le fait que l’IA consiste en des systèmes qui reconnaissent des modèles et « parlent » comme des perroquets.

À leur tour, les leaders du développement de l’IA soutiennent que, malgré les risques, on peut attendre beaucoup de bien de l’IA, du développement de médicaments contre le cancer aux bactéries qui mangent du plastique et une solution au problème climatique. Si nous discutons simplement de la manière de le faire en toute sécurité, affirment-ils, l’IA peut réellement aider l’humanité à aller de l’avant.

Le fait qu’ils reconnaissent les risques de leur technologie, même à plus long terme, semble être bien accueilli par les politiques. Altman et Amodei, accompagnés de hauts dirigeants de Google et Microsoft, ont été invités à parler au président Biden de l’IA à la Maison Blanche début mai. Biden leur a rappelé leur responsabilité de « mitiger les risques » – le libellé même qu’ils ont approuvé dans la déclaration de mardi.

Il y a deux semaines, Altman a été interrogé au Sénat sur les risques de l’IA. Contrairement aux interrogatoires de Mark Zuckerberg de Meta et d’autres patrons de Big Tech qui ont été interrogés durement et parfois de manière hostile à Capitol Hill, Altman a été accueilli avec respect et admiration par les sénateurs. En reconnaissant les dangers potentiels de l’IA et en étant généralement ouvert à la réglementation, il a coupé le souffle aux interrogateurs critiques.

Mais le Congrès américain est trop divisé depuis des années pour s’entendre sur une réglementation du secteur technologique. En Europe, c’est différent. Le Parlement européen est bien avancé avec un projet de loi avec des règles pour l’IA (telles que l’analyse des risques obligatoire et la transparence sur les données utilisées).

Contrariété

Altman d’OpenAI pourrait exprimer son mécontentement à ce sujet la semaine dernière, lors du voyage à travers l’Europe où il a cherché un bon emplacement pour un siège européen (et où il s’est entretenu avec les chefs de gouvernement et d’État du Royaume-Uni, de la France, de l’Allemagne, de l’Espagne et de la Pologne). Au Sénat, il venait tout juste de déclarer l’importance qu’il accordait à la réglementation de l’IA, mais lors d’une visite à Londres, il a menacé Bruxelles que son entreprise envisagerait de tourner le dos à l’Europe si les règles devenaient trop strictes. Cela semblait être un coup de pouce pour les lobbyistes américains, qui tentent d’édulcorer la facture à Bruxelles.

Mais un jour plus tard à Paris, Altman s’était déjà rendu compte que la menace n’était pas bien passée. Il s’est empressé de déclarer qu’OpenAI entend bien se conformer aux nouvelles règles européennes. « Nous voulons proposer nos services en Europe. »

© CNRC Médias



ttn-fr-45