La bonne réponse à l’IA est plus banale que la peur existentielle


Cet article est une version sur site de la newsletter Free Lunch de Martin Sandbu. S’inscrire ici pour recevoir la newsletter directement dans votre boîte de réception tous les jeudis

Lorsque ChatGPT et d’autres instances de logiciels d’intelligence artificielle ont été lancés sur un public sans méfiance il y a quelques mois, une frénésie d’étonnement a suivi. Dans son sillage est venue une avalanche d’inquiétudes quant à l’évolution vertigineuse des capacités du logiciel qui mènera la société humaine – y compris, de manière frappante, de la part de personnes très proches de l’action.

Le mois dernier, l’investisseur en intelligence artificielle Ian Hogarth a insisté dans le magazine du week-end du FT sur le fait que « nous devons ralentir la course à l’IA divine ». Quelques semaines plus tard, celui que l’on surnommait le « parrain » d’AI, Geoffrey Hinton, quittait Google pour pouvoir exprimer librement ses inquiétudes, y compris dans un entretien avec le New York Times. Professeur et entrepreneur en IA Gary Marcus s’inquiète sur « ce que les mauvais acteurs peuvent faire avec ces choses ». Et aujourd’hui même, le FT a un entretien avec le pionnier de l’IA, Yoshua Bengio, qui craint que l’IA ne « déstabilise la démocratie ». Pendant ce temps, un grand nombre d’investisseurs et d’experts en IA ont appelé à un « moratoire » sur le développement ultérieur de la technologie.

Appelez-moi naïf, mais je me suis retrouvé incapable de me laisser emporter par une grande partie de l’excitation. Non pas parce que je doute que l’IA bouleversera la façon dont nous vivons nos vies et en particulier les structures de nos économies – bien sûr, ce sera le cas. (Consultez cette liste des nombreuses façons dont les gens sont commencent déjà à utiliser l’IA.) Mais plutôt parce que j’ai du mal à voir comment même les pires scénarios contre lesquels les experts nous mettent en garde sont qualitativement différents des grands problèmes que l’humanité a déjà réussi à causer et a dû essayer de résoudre par nous-mêmes.

Prenons l’exemple de Hogarth d’un chatbot IA conduisant quelqu’un au suicide. Au XVIIIe siècle, la lecture de Goethe Le Les douleurs du jeune Werther pourrait soi-disant avoir le même effet. Quelle que soit la conclusion à tirer, ce n’est pas que l’IA représente un danger existentiel.

Ou prenez Hinton, dont « l’inquiétude immédiate est qu’Internet sera inondé de fausses photos, vidéos et textes, et que la personne moyenne ne sera plus en mesure de savoir ce qui est vrai ». L’incapacité de voir la vérité est une crainte qui semble partagée par tous les penseurs mentionnés ci-dessus. Mais le mensonge et la manipulation, en particulier dans nos processus démocratiques, sont des problèmes que nous, les humains, sommes parfaitement capables de causer sans avoir besoin de l’IA. Un rapide coup d’œil à certaines opinions partagées par de larges majorités du public américain, par exemple, montre que (pour le dire poliment) un accès restreint à la vérité n’a rien de nouveau. Et, bien sûr, la capacité de l’IA générative à créer des deepfakes signifie que nous devrons devenir plus critiques vis-à-vis de ce que nous voyons et entendons ; et des politiciens sans scrupules utiliseront l’accusation de deepfake pour rejeter les révélations préjudiciables à leur sujet. Mais, encore une fois, en 2017, Donald Trump n’avait pas besoin de l’IA pour pouvoir retourner les accusations de « fake news » contre ses détracteurs.

Je pense donc que l’odeur de terreur existentielle que les dernières percées de l’IA ont suscitée est une distraction. Nous devrions plutôt penser à un niveau beaucoup plus banal. Marcus établit une belle analogie avec les codes de construction et les normes pour les installations électriques, et cela – plutôt qu’une tentative de ralentir les développements technologiques eux-mêmes – est le plan sur lequel les discussions politiques devraient avoir lieu.

Il y a deux questions particulièrement sérieuses (parce qu’elles sont les plus exploitables) auxquelles les décideurs politiques devraient se pencher, en particulier les décideurs économiques.

La première est de savoir qui devrait être tenu responsable des décisions prises par les algorithmes d’IA. Il devrait être facile d’accepter le principe selon lequel nous ne devrions pas autoriser les décisions prises par l’IA que nous n’autoriserions pas (ou ne voudrions pas autoriser) si elles étaient prises par un décideur humain. Nous avons une mauvaise forme à ce sujet, bien sûr : nous laissons les structures d’entreprise s’en tirer avec des actions que nous ne permettrions pas à des êtres humains individuels. Mais avec l’IA à ses balbutiements, nous avons l’opportunité d’éliminer dès le départ l’impunité possible pour les personnes réelles en se basant sur la défense que « c’est l’IA qui l’a fait ». (Cet argument ne se limite pas à l’IA, soit dit en passant : nous devrions traiter les algorithmes informatiques non intelligents de la même manière.)

Une telle approche encourage les efforts législatifs et réglementaires à ne pas s’enliser dans la technologie elle-même, mais à se concentrer plutôt sur ses utilisations particulières et les dommages qui en découlent. Dans la plupart des cas, peu importe si un préjudice est causé par une décision d’IA ou une décision humaine ; ce qui compte, c’est de dissuader et de pénaliser la décision préjudiciable. Daniel Dennett exagère quand il dit dans le magazine The Atlantic que la capacité de l’IA à créer « des personnes numériques contrefaites risque de détruire notre civilisation ». Mais il fait valoir que si les dirigeants des entreprises technologiques développant l’IA risquent une peine de prison pour que leur technologie soit utilisée pour faciliter la fraude, ils veilleront rapidement à ce que le logiciel inclue des signatures permettant de détecter facilement si nous communiquons avec une IA. .

La loi sur l’intelligence artificielle en cours de législation dans l’UE semble adopter la bonne approche : identifier les utilisations particulières de l’IA à interdire, restreindre ou réglementer ; imposer la transparence sur le moment où l’IA est utilisée ; veiller à ce que les règles applicables ailleurs s’appliquent également aux utilisations de l’IA, telles que le droit d’auteur pour les œuvres d’art sur lesquelles une IA peut être formée ; et en précisant clairement où se situe la responsabilité, par exemple, que ce soit avec le développeur d’un algorithme d’IA ou ses utilisateurs.

La deuxième grande question à laquelle les décideurs politiques devraient prêter attention est quelles seront les conséquences distributives des gains de productivité que l’IA devrait éventuellement apporter. Cela dépendra en grande partie des droits de propriété intellectuelle, qui concernent en fin de compte qui contrôle l’accès à la technologie (et peut facturer cet accès).

Parce que nous ne savons pas comment l’IA sera utilisée, il est difficile de savoir dans quelle mesure l’accès aux utilisations précieuses serait contrôlé et monétisé. Il est donc utile de penser en termes de deux extrêmes. D’un côté, il y a le monde entièrement propriétaire, où l’IA la plus utile sera la propriété intellectuelle des entreprises qui créent les technologies d’IA. Ceux-ci seront tout au plus au nombre d’une poignée en raison des énormes ressources consacrées à la création d’une IA utilisable. Véritable monopole ou oligopole, ils pourront facturer des tarifs élevés pour les licences et récolter l’essentiel des gains de productivité que l’IA peut apporter.

À l’extrême opposé se trouve le monde open source, dans lequel la technologie de l’IA peut être exécutée avec très peu d’investissements, de sorte que toute tentative de restriction d’accès ne fera que provoquer la création d’un rival open source gratuit. Si l’auteur de la fuite Mémo Google « nous n’avons pas de douves » est correct, le monde open-source est ce que nous regardons. Rebecca Gorman de IA alignée, fait valoir la même chose dans une lettre au FT. Dans ce monde, les gains de productivité de l’IA seront gagnés par quiconque a l’esprit ou la motivation pour les déployer – les entreprises technologiques verront leur produit marchandisé et revu à la baisse par la concurrence.

Je pense qu’il est impossible de savoir aujourd’hui de quel extrême nous serons plus proches, pour la simple raison qu’il est impossible d’imaginer comment l’IA sera utilisée et donc précisément quelle technologie sera nécessaire. Mais je ferais deux observations.

La première consiste à regarder Internet : ses protocoles sont conçus pour être accessibles à tous, et le langage est, bien sûr, open-source. Pourtant, cela n’a pas empêché les grandes entreprises technologiques d’essayer, et souvent de réussir, à créer des « jardins clos » avec leurs produits, et d’en tirer une rente économique. Nous devrions donc pécher par excès en craignant que la révolution de l’IA ne se prête à la concentration du pouvoir économique et des récompenses.

La deuxième est que la situation dans laquelle nous aboutissons est, en partie, le résultat des choix politiques que nous faisons aujourd’hui. Pour pousser vers un monde open source, les gouvernements pourraient légiférer pour accroître la transparence et l’accès à la technologie développée par les entreprises technologiques, transformant ainsi le propriétaire en open source. Parmi les outils qu’il est logique d’envisager – en particulier pour les technologies matures, les grandes entreprises ou les instances d’IA qui sont rapidement adoptées par les utilisateurs – figurent les licences obligatoires (à des prix réglementés) et l’obligation de publier le code source.

Après tout, les mégadonnées sur lesquelles toute IA réussie aura été formée sont générées par nous tous. Le public a une forte revendication sur le fruit de son travail de données.

Autres lisibles

  • « Il ne peut y avoir d’ordre de négociation ouvert qui fonctionne sans un ordre de sécurité correspondant qui le garantisse », affirment Tobias Gehrke et Julian Ringhof, du Conseil européen des relations étrangères, dans un analyse importante de la manière dont l’UE doit actualiser sa réflexion sur la politique commerciale stratégique.

  • Le projet d’euro numérique avance à grands pas mais doit encore gagner un large soutien public.

  • Le Conseil de l’Europe est mise en place d’un registre des dommages causés par l’attaque de la Russie contre l’Ukraine. En tant qu’initiative multilatérale formelle, cela devrait permettre de tenir plus facilement la Russie financièrement responsable de la destruction qu’elle a provoquée, y compris par la confiscation éventuelle de ses avoirs.

  • La nouvelle plateforme d’achat conjointe de gaz naturel de l’UE a fait mieux que prévu dans son premier appel d’offres.

L’actualité des chiffres

La Grande-Bretagne après le Brexit – Tenez-vous au courant des derniers développements alors que l’économie britannique s’adapte à la vie en dehors de l’UE. S’inscrire ici

Secrets commerciaux — Une lecture incontournable sur l’évolution du commerce international et de la mondialisation. S’inscrire ici



ttn-fr-56