De puissants systèmes d’intelligence artificielle peuvent être extrêmement bénéfiques pour la société et nous aider à résoudre certains des plus grands problèmes du monde. Les modèles d’apprentissage automatique jouent déjà un rôle important dans le diagnostic des maladies, l’accélération de la recherche scientifique, la stimulation de la productivité économique et la réduction de la consommation d’énergie en optimisant les flux d’électricité sur les réseaux électriques, par exemple.
Ce serait une tragédie si ces gains étaient compromis à la suite d’un contrecoup contre la technologie. Mais ce danger grandit à mesure que les abus de la technologie de l’IA se multiplient, dans des domaines tels que la discrimination injuste, la désinformation et la fraude, comme Geoffrey Hinton, l’un des “parrains de l’IA”, a mis en garde le mois dernier lors de sa démission de Google. Il est donc impératif que les gouvernements agissent rapidement pour réglementer la technologie de manière appropriée et proportionnée.
Comment y parvenir sera l’un des plus grands défis de gouvernance de notre époque. Les systèmes d’apprentissage automatique, qui peuvent être déployés dans des millions de cas d’utilisation, défient toute catégorisation facile et peuvent poser de nombreux problèmes aux régulateurs. Cette technologie en évolution rapide peut également être utilisée de manière diffuse, invisible et omniprésente, à grande échelle. Mais, fait encourageant, les régulateurs du monde entier commencent enfin à s’attaquer aux problèmes.
La semaine dernière, la Maison Blanche a convoqué les patrons des plus grandes sociétés d’IA pour explorer les avantages et les dangers de la technologie avant de définir les futures directives. L’UE et la Chine sont déjà bien avancées dans l’élaboration de règles et de réglementations pour régir l’IA. Et l’autorité de la concurrence du Royaume-Uni doit procéder à un examen du marché de l’IA.
La première étape consiste pour l’industrie technologique elle-même à convenir et à mettre en œuvre certains principes communs sur la transparence, la responsabilité et l’équité. Les entreprises ne devraient jamais essayer de faire passer les chatbots pour des humains, par exemple. La deuxième étape consisterait pour tous les régulateurs, dans des domaines tels que le droit du travail, les marchés financiers et de consommation, la politique de concurrence, la protection des données, la vie privée et les droits de l’homme, à modifier les règles existantes pour tenir compte des risques spécifiques soulevés par l’IA. Le troisième est que les agences gouvernementales et les universités approfondissent leur propre expertise technologique afin de réduire le risque de capture industrielle.
Au-delà de cela, deux régimes réglementaires globaux devraient être envisagés pour l’IA, même si aucun des deux n’est suffisant pour l’ampleur du défi. Un régime, basé sur le principe de précaution, signifierait que les algorithmes utilisés dans quelques domaines critiques de vie ou de mort, tels que les soins de santé, le système judiciaire et l’armée, nécessiteraient une approbation préalable avant utilisation. Cela pourrait fonctionner à peu près de la même manière que la Food and Drug Administration des États-Unis, qui examine les médicaments pharmaceutiques avant leur libération et a un mandat plus large pour protéger et promouvoir la santé publique.
Le second modèle, plus flexible, pourrait être basé sur la « gouvernance par accident », comme cela fonctionne dans l’industrie du transport aérien. Aussi alarmant que cela puisse paraître, il a travaillé de manière extrêmement efficace pour relever les normes de sécurité aérienne au cours des dernières décennies. Les autorités de l’aviation internationale ont le pouvoir d’imposer des changements à tous les constructeurs d’avions et à toutes les compagnies aériennes une fois qu’un défaut est détecté. Quelque chose de similaire pourrait être utilisé lorsque des défauts nuisibles sont découverts dans les modèles d’IA destinés aux consommateurs, tels que les voitures autonomes.
Plusieurs chercheurs de pointe de l’industrie ont appelé à un moratoire sur le développement de modèles d’IA génératifs de pointe. Mais les pauses sont inutiles à moins que des régimes de gouvernance plus clairs ne puissent être mis en place. Même l’industrie technologique reconnaît qu’elle a maintenant besoin de règles de conduite plus claires et doit travailler de manière constructive avec les gouvernements et les organisations de défense des droits civiques pour aider à les rédiger. Après tout, les voitures peuvent rouler plus vite dans les virages lorsqu’elles sont équipées de freins efficaces.