Mustafa Suleyman et Eric Schmidt : Nous avons besoin d’un équivalent IA du GIEC


Restez informé avec des mises à jour gratuites

Les auteurs sont co-fondateurs d’Inflection & DeepMind et ancien PDG de Google.

L’IA est là. Vient maintenant la partie la plus difficile : apprendre à la gérer et à la gouverner. Alors que les grands modèles linguistiques ont explosé en popularité et en capacités au cours de l’année écoulée, les préoccupations en matière de sécurité sont devenues dominantes dans le débat politique. Pour la première fois, l’intelligence artificielle figure en tête de liste des priorités des décideurs politiques du monde entier.

Même pour ceux d’entre nous qui travaillent dans ce domaine, le rythme des progrès a été électrisant. Et pourtant, il a été tout aussi révélateur de voir la réaction extraordinaire du public, du monde des affaires et maintenant du monde politique s’accélérer. Il existe un consensus croissant sur le fait qu’il s’agit réellement d’un tournant aussi important qu’Internet.

La clarté sur ce qui devrait être fait face à cette technologie en plein essor est une autre affaire. Les suggestions concrètes sont rares. Qui plus est, les mesures nationales ne peuvent aller plus loin étant donné leur nature intrinsèquement mondiale. Les appels à « simplement réglementer » sont aussi forts et aussi simplistes que les appels à simplement continuer.

Avant de nous lancer tête première dans une réglementation excessive, nous devons d’abord remédier au manque fondamental de compréhension des législateurs sur ce qu’est l’IA, à quelle vitesse elle se développe et où se situent les risques les plus importants. Avant de pouvoir la gérer correctement, les politiciens (et le public) doivent savoir ce qu’ils réglementent et pourquoi. À l’heure actuelle, la confusion et l’incertitude règnent.

Ce qui manque, c’est un organisme indépendant, dirigé par des experts, habilité à informer objectivement les gouvernements sur l’état actuel des capacités de l’IA et à faire des prédictions fondées sur des preuves sur ce qui s’en vient. Les décideurs politiques recherchent des évaluations impartiales, techniquement fiables et opportunes sur la rapidité de ses progrès et son impact.

Nous pensons que la bonne approche consiste ici à s’inspirer du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Son mandat est de fournir aux décideurs politiques « des évaluations régulières des fondements scientifiques du changement climatique, de ses impacts et risques futurs, ainsi que des options d’adaptation et d’atténuation ».

Un organisme qui ferait de même pour l’IA, et qui se concentrerait rigoureusement sur une collecte de données scientifique, assurerait non seulement une fonction de surveillance et d’alerte précoce à long terme, mais façonnerait les protocoles et les normes concernant les rapports sur l’IA de manière cohérente. , la mode mondiale. Quels modèles existe-t-il ? Que peuvent-ils faire? Quelles sont leurs spécifications techniques ? Leurs risques ? Où en seront-ils dans trois ans ? Qu’est-ce qui est déployé, où et par qui ? Que disent les dernières recherches et développements sur l’avenir ?

Le prochain sommet britannique sur la sécurité de l’IA sera le premier rassemblement de dirigeants mondiaux se réunissant pour discuter de la sécurité de la technologie. Pour soutenir les discussions et parvenir à un résultat pratique, nous proposons la création d’un panel international sur la sécurité de l’IA (IPAIS), un GIEC pour l’IA. Cette prochaine étape nécessaire, mesurée et surtout réalisable fournira une structure indispensable au débat actuel sur la sécurité de l’IA.

L’IPAIS évaluerait régulièrement et de manière impartiale l’état de l’IA, ses risques, ses impacts potentiels et ses délais estimés. Il garderait un œil sur les solutions techniques et politiques pour atténuer les risques et améliorer les résultats. Il est important de noter que le GIEC ne mène pas sa propre recherche fondamentale, mais agit comme une plaque tournante centrale qui rassemble les données scientifiques sur le changement climatique, cristallisant ce que le monde sait et ne sait pas sous une forme faisant autorité et indépendante. Un IPAIS fonctionnerait de la même manière, doté et dirigé par des informaticiens et des chercheurs plutôt que par des personnalités politiques ou des diplomates.

C’est ce qui en fait un modèle si prometteur : en restant à l’écart de la recherche primaire ou des propositions politiques, il peut éviter les conflits d’intérêts qui accompagnent inévitablement un rôle plus actif. Avec une portée étroitement axée sur l’établissement d’une compréhension technique approfondie des capacités actuelles et de leurs trajectoires d’amélioration, il serait peu coûteux à gérer, impartial et indépendant, et fondé sur une large composition internationale.

Étant donné qu’une grande partie des travaux les plus avancés en matière d’IA sont réalisés par des entreprises, il est essentiel de garantir une transparence suffisante de la part des grandes entreprises. Un IPAIS sera utile ici avant même que les mécanismes juridiques n’entrent en jeu, en établissant un organisme de confiance auquel rendre compte, en créant des attentes et des normes autour du partage afin de fournir un espace pour une ouverture maximale dans un marché commercial serré. Lorsqu’un accès complet n’est pas possible, il regrouperait néanmoins toutes les informations accessibles au public sous la forme la plus complète et la plus fiable.

Confiance, connaissance, expertise, impartialité. C’est sur ces éléments que reposeront une réglementation et une sécurité efficaces et sensées en matière d’IA. Actuellement, ils manquent. Nous pensons qu’il est essentiel d’établir un consensus scientifique indépendant sur les capacités développées et celles à venir pour développer une IA sûre. C’est une idée dont le moment est venu.

*Cette proposition a été développée conjointement par Mustafa Suleyman, Eric Schmidt, Dario Amodei, Ian Bremmer, Tino Cuéllar, Reid Hoffman, Jason Matheny et Philip Zelikow.



ttn-fr-56