La régulation de l’intelligence artificielle est un défi 4D


L’écrivain est le fondateur de tamiséun site soutenu par le FT sur les start-ups européennes

Les dirigeants des pays du G7 ont abordé de nombreuses préoccupations mondiales concernant les huîtres Nomi cuites à la vapeur de saké à Hiroshima le week-end dernier : la guerre en Ukraine, la résilience économique, l’énergie propre et la sécurité alimentaire, entre autres. Mais ils ont également jeté un élément supplémentaire dans leur sac de bonnes intentions : la promotion d’une intelligence artificielle inclusive et digne de confiance.

Tout en reconnaissant le potentiel d’innovation de l’IA, les dirigeants s’inquiétaient des dommages qu’elle pourrait causer à la sécurité publique et aux droits de l’homme. Lancement du processus Hiroshima AI, le G7 a chargé un groupe de travail d’analyser l’impact des modèles d’IA générative, tels que ChatGPT, et d’amorcer les discussions des dirigeants d’ici la fin de cette année.

Les premiers défis seront de savoir comment définir au mieux l’IA, catégoriser ses dangers et élaborer une réponse appropriée. Vaut-il mieux laisser la réglementation aux agences nationales existantes ? Ou la technologie est-elle si conséquente qu’elle exige de nouvelles institutions internationales ? Avons-nous besoin de l’équivalent moderne de l’Agence internationale de l’énergie atomique, fondée en 1957 pour promouvoir le développement pacifique de la technologie nucléaire et dissuader son utilisation militaire ?

On peut débattre de l’efficacité avec laquelle l’organe de l’ONU a rempli cette mission. En outre, la technologie nucléaire implique des matières radioactives et des infrastructures massives physiquement faciles à repérer. L’IA, en revanche, est relativement bon marché, invisible, omniprésente et a des cas d’utilisation infinis. À tout le moins, il présente un défi à quatre dimensions qui doit être relevé de manière plus souple.

La première dimension est la discrimination. Les systèmes d’apprentissage automatique sont conçus pour discriminer, pour repérer les valeurs aberrantes dans les modèles. C’est bon pour repérer les cellules cancéreuses dans les scans de radiologie. Mais c’est mauvais si des systèmes de boîte noire formés sur des ensembles de données erronés sont utilisés pour embaucher et licencier des travailleurs ou autoriser des prêts bancaires. Bias in, bias out, comme on dit. Interdire ces systèmes dans les zones à haut risque inacceptable, comme le propose la prochaine loi sur l’IA de l’UE, est une approche stricte et prudente. La création d’auditeurs indépendants et experts pourrait être une solution plus adaptable.

Deuxièmement, la désinformation. Comme l’a averti l’expert universitaire Gary Marcus au Congrès américain la semaine dernière, l’IA générative pourrait mettre en danger la démocratie elle-même. De tels modèles peuvent générer des mensonges plausibles et contrefaire des humains à la vitesse de l’éclair et à l’échelle industrielle.

Il devrait incomber aux entreprises technologiques elles-mêmes de filigraner le contenu et de minimiser la désinformation, tout comme elles ont supprimé le spam par e-mail. Ne pas le faire ne fera qu’amplifier les appels à une intervention plus drastique. Le précédent a peut-être été créé en Chine, où un projet de loi place la responsabilité de l’utilisation abusive des modèles d’IA sur le producteur plutôt que sur l’utilisateur.

Troisièmement, la luxation. Personne ne peut prévoir avec précision l’impact économique global de l’IA. Mais il semble à peu près certain que cela conduira à la « déprofessionnalisation » de pans entiers d’emplois de cols blancs, comme l’a déclaré l’entrepreneure Vivienne Ming au festival FT Weekend à DC.

Les programmeurs informatiques ont largement adopté l’IA générative comme outil d’amélioration de la productivité. En revanche, les scénaristes hollywoodiens en grève peuvent être les premiers de nombreux métiers à craindre que leurs compétences de base ne soient automatisées. Cette histoire désordonnée défie les solutions simples. Les nations devront s’adapter aux défis sociétaux à leur manière.

Quatrièmement, la dévastation. L’intégration de l’IA dans des systèmes d’armes létaux autonomes (LAWS), ou des robots tueurs, est une perspective terrifiante. Le principe selon lequel les êtres humains doivent toujours rester dans le circuit décisionnel ne peut être établi et appliqué que par le biais de traités internationaux. Il en va de même pour les discussions autour de l’intelligence artificielle générale, le jour (peut-être fictif) où l’IA surpasse l’intelligence humaine dans tous les domaines. Certains militants rejettent ce scénario comme un fantasme distrayant. Mais cela vaut certainement la peine d’écouter les experts qui mettent en garde contre les risques existentiels potentiels et appellent à une collaboration internationale en matière de recherche.

D’autres peuvent soutenir qu’essayer de réglementer l’IA est aussi futile que de prier pour que le soleil ne se couche pas. Les lois n’évoluent que progressivement alors que l’IA se développe de manière exponentielle. Mais Marcus dit qu’il a été encouragé par le consensus bipartite pour l’action au Congrès américain. Craignant peut-être que les régulateurs de l’UE n’établissent des normes mondiales pour l’IA, comme ils l’ont fait il y a cinq ans avec la protection des données, les entreprises technologiques américaines soutiennent également publiquement la réglementation.

Les dirigeants du G7 devraient encourager une compétition pour les bonnes idées. Ils doivent maintenant déclencher une course réglementaire vers le haut, plutôt que de présider à un glissement effrayant vers le bas.



ttn-fr-56