Nous avons besoin d’un Alan Turing politique pour concevoir des garanties contre l’IA


Recevez des mises à jour gratuites sur l’intelligence artificielle

L’écrivain est le fondateur de Tamiséun site soutenu par le FT sur les start-ups européennes

Lorsqu’Alan Turing travaillait à Bletchley Park pendant la Seconde Guerre mondiale, il a contribué à résoudre une énigme diabolique : déchiffrer le code Enigma « incassable » de l’Allemagne nazie. Le mois prochain, le gouvernement britannique organise une conférence internationale dans la même maison de campagne du Buckinghamshire pour explorer un problème tout aussi déroutant : minimiser les risques potentiellement catastrophiques de l’intelligence artificielle. Même un mathématicien aussi ingénieux que Turing serait mis à l’épreuve par ce défi.

Alors que le dispositif électromécanique construit par Turing ne pouvait remplir qu’une seule fonction de piratage de code, les modèles d’IA d’aujourd’hui se rapprochent des ordinateurs « universels » qu’il ne pouvait qu’imaginer, capables de beaucoup plus de fonctions. Le dilemme est que la même technologie qui peut stimuler la productivité économique et la recherche scientifique peut également intensifier la cyberguerre et le bioterrorisme.

Comme le montre clairement le débat public féroce qui a éclaté depuis la sortie par OpenAI de son chatbot ChatGPT en novembre dernier, le spectre des préoccupations suscitées par l’IA s’élargit rapidement.

D’un côté, les champions de la « sécurité » extrapolent à partir des récents progrès de la technologie de l’IA et se concentrent sur les risques extrêmes. Une lettre ouverte signé plus tôt cette année par des dizaines des plus grands chercheurs mondiaux en IA – y compris les dirigeants d’OpenAI, Anthropic et Google DeepMind, qui développent les modèles les plus puissants – ont même déclaré : « Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire.

De l’autre côté, les défenseurs de « l’éthique » sont agités par les préoccupations actuelles liées aux préjugés algorithmiques, à la discrimination, à la désinformation, aux droits d’auteur, aux droits des travailleurs et à la concentration du pouvoir des entreprises. Certains chercheurs, comme Emily Bender, professeur à l’Université de Washington, affirment que le débat sur les risques existentiels de l’IA relève d’un fantasme de science-fiction destiné à détourner l’attention des préoccupations d’aujourd’hui.

Plusieurs groupes de la société civile et petites entreprises technologiques, qui se sentent exclus des débats officiels de Bletchley Park, organisent des événements en marge pour discuter des questions qu’ils estiment ignorées.

Matt Clifford, l’investisseur technologique britannique qui contribue à définir l’ordre du jour du sommet sur la sécurité de l’IA, reconnaît que celui-ci ne répondra qu’à un seul ensemble de préoccupations. Mais il affirme que d’autres forums et institutions sont déjà aux prises avec de nombreux autres problèmes. « Nous avons choisi une approche étroite, non pas parce que nous ne nous soucions pas de toutes les autres choses, mais parce que c’est ce qui semble urgent, important et négligé. » il me dit.

En particulier, il affirme que la conférence explorera les possibilités et les dangers des modèles frontières de nouvelle génération, susceptibles d’être commercialisés dans les 18 prochains mois. Même les créateurs de ces modèles ont du mal à prédire leurs capacités. Mais ils sont certains qu’ils seront nettement plus puissants que ceux d’aujourd’hui et, par défaut, accessibles à plusieurs millions de personnes.

Comme Dario Amodei, directeur général d’Anthropic, décrit dans un témoignage effrayant Selon le Congrès américain en juillet, le développement de modèles d’IA plus puissants pourrait révolutionner la découverte scientifique, mais cela élargirait également « considérablement le nombre de personnes capables de faire des ravages ». Sans garde-fous appropriés, il pourrait y avoir un risque substantiel d’« attaque biologique à grande échelle », a-t-il déclaré.

Même si l’industrie résiste, il est difficile d’échapper à la conclusion selon laquelle le principe de précaution doit désormais s’appliquer aux modèles d’IA d’avant-garde étant donné l’inconnaissance de leurs capacités et la vitesse à laquelle ils sont développés. C’est le point de vue de Yoshua Bengio, chercheur pionnier en IA et lauréat du prix Turing pour l’informatique, qui participe à la conférence de Bletchley Park.

Bengio suggère que les modèles d’IA de pointe pourraient être réglementés de la même manière que la Food and Drug Administration des États-Unis contrôle la libération de médicaments pour empêcher la vente de remèdes inutiles. Cela pourrait ralentir le rythme de l’innovation et coûter plus d’argent aux entreprises technologiques, mais « c’est le prix de la sécurité et nous ne devrions pas hésiter à le faire », a-t-il déclaré dans une interview pour la prochaine série de podcasts Tech Tonic du FT.

Il est louable que le gouvernement britannique entame un débat mondial sur la sécurité de l’IA et qu’il renforce lui-même la capacité de l’État à s’attaquer aux modèles frontières. Mais Bletchley Park ne signifiera pas grand-chose à moins qu’il ne débouche sur une action coordonnée significative. Et dans un monde distrait par tant de dangers, il faudra un Turing politique plutôt que technologique pour déchiffrer le code.



ttn-fr-56