Nous devons éloigner les PDG de la réglementation de l’IA


L’auteur est directeur de la politique internationale au Cyber ​​Policy Center de l’Université de Stanford et est conseiller spécial de Margrethe Vestager.

Les entreprises technologiques reconnaissent que la course à la domination de l’IA se décide non seulement sur le marché, mais aussi à Washington et à Bruxelles. Les règles régissant le développement et l’intégration de leurs produits d’IA auront un impact existentiel sur eux, mais restent actuellement en suspens. Alors les dirigeants tentent d’aller de l’avant et de donner le ton, en arguant qu’ils sont les mieux placés pour réguler les technologies mêmes qu’ils produisent. L’IA est peut-être nouvelle, mais les points de discussion sont recyclés : ce sont les mêmes que Mark Zuckerberg a utilisés à propos des médias sociaux et que Sam Bankman-Fried a proposés à propos de la cryptographie. De telles déclarations ne devraient pas distraire à nouveau les législateurs démocrates.

Imaginez le directeur général de JPMorgan expliquant au Congrès que les produits financiers étant trop complexes pour être compris par les législateurs, les banques devraient décider elles-mêmes comment prévenir le blanchiment d’argent, permettre la détection des fraudes et fixer des ratios liquidité/prêt. Il serait ri hors de la salle. Les électeurs en colère souligneraient à quel point l’autorégulation s’est bien déroulée dans la crise financière mondiale. Des grandes sociétés de tabac aux grandes sociétés pétrolières, nous avons appris à nos dépens que les entreprises ne peuvent pas établir de réglementation désintéressée. Ils ne sont ni indépendants ni capables de se créer des pouvoirs compensatoires.

D’une manière ou d’une autre, cette vérité fondamentale a été perdue en ce qui concerne l’IA. Les législateurs sont impatients de s’en remettre aux entreprises et veulent leurs conseils sur la réglementation; Sénateurs même demandé Le directeur général d’OpenAI, Sam Altman, nommera des leaders potentiels de l’industrie pour superviser un régulateur national putatif de l’IA.

Dans les cercles de l’industrie, les appels à la réglementation de l’IA ont frôlé l’apocalyptique. Les scientifiques avertissent que leurs créations sont trop puissantes et pourraient devenir voyous. Une lettre récente, signé par Altman et d’autres, a averti que l’IA constituait une menace pour la survie de l’humanité semblable à une guerre nucléaire. On pourrait penser que ces craintes inciteraient les dirigeants à agir mais, malgré la signature, pratiquement aucun n’a modifié son propre comportement. Peut-être que leur cadrage de la façon dont nous pensons aux garde-fous autour de l’IA est le véritable objectif. Notre capacité à naviguer dans les questions sur le type de réglementation nécessaire est également fortement influencée par notre compréhension de la technologie elle-même. Les déclarations ont attiré l’attention sur les IA risque existentiel. Mais les critiques soutiennent que donner la priorité à la prévention de cela sur toute la ligne éclipse le travail indispensable contre la discrimination et les préjugés qui devrait se produire aujourd’hui.

Les avertissements sur les risques catastrophiques de l’IA, soutenus par ceux-là mêmes qui pourraient arrêter de pousser leurs produits dans la société, désorientent. Les lettres ouvertes font paraître les signataires impuissants dans leurs appels désespérés. Mais ceux qui tirent la sonnette d’alarme ont déjà le pouvoir de ralentir ou de suspendre la progression potentiellement dangereuse de l’intelligence artificielle.

L’ancien PDG de Google, Eric Schmidt, soutient que les entreprises sont les seules équipées pour développer des garde-corps, tandis que les gouvernements manquent d’expertise. Mais les législateurs et les dirigeants ne sont pas non plus des experts dans l’agriculture, la lutte contre le crime ou la prescription de médicaments, et pourtant ils réglementent toutes ces activités. Ils ne devraient certainement pas être découragés par la complexité de l’IA – cela devrait plutôt les encourager à prendre leurs responsabilités. Et Schmidt nous a involontairement rappelé le premier défi : briser les monopoles sur l’accès aux informations propriétaires. Avec des recherches indépendantes, des évaluations des risques réalistes et des lignes directrices sur l’application des réglementations existantes, un débat sur la nécessité de nouvelles mesures serait fondé sur des faits.

Les actions exécutives parlent plus fort que les mots. Quelques jours seulement après que Sam Altman ait salué la réglementation de l’IA dans son témoignage devant le Congrès, il a menacé de mettre fin aux opérations d’OpenAI en Europe à cause de cela. Lorsqu’il s’est rendu compte que les régulateurs de l’UE n’appréciaient pas les menaces, il est revenu à une offensive de charme, s’engageant à ouvrir un bureau en Europe.

Les législateurs doivent se rappeler que les hommes d’affaires sont principalement préoccupés par le profit plutôt que par les impacts sociétaux. Il est grand temps d’aller au-delà des plaisanteries et de définir des objectifs et des méthodes spécifiques pour la réglementation de l’IA. Les décideurs politiques ne doivent pas laisser les PDG de la technologie façonner et contrôler le récit, et encore moins le processus.

Une décennie de bouleversements technologiques a mis en évidence l’importance d’une surveillance indépendante. Ce principe est encore plus important lorsque le pouvoir sur des technologies comme l’IA est concentré dans une poignée d’entreprises. Nous devrions écouter les personnes puissantes qui les dirigent, mais ne jamais prendre leurs paroles au pied de la lettre. Leurs grandes revendications et ambitions devraient plutôt inciter les régulateurs et les législateurs à agir en se basant sur leur propre expertise : celle du processus démocratique.



ttn-fr-56