OpenAI élargit son équipe de lobbying pour influencer la réglementation


OpenAI constitue une équipe internationale de lobbyistes dans le but d’influencer les politiciens et les régulateurs qui renforcent leur surveillance de la puissante intelligence artificielle.

La start-up basée à San Francisco a déclaré au Financial Times qu’elle avait augmenté le nombre d’employés de son équipe des affaires mondiales de trois début 2023 à 35. L’entreprise vise à porter ce nombre à 50 d’ici la fin de 2024.

Cette avancée intervient alors que les gouvernements explorent et débattent d’une législation autour de la sécurité de l’IA qui risque de limiter la croissance de la start-up et le développement de ses modèles de pointe, qui sous-tendent des produits tels que ChatGPT.

« Nous n’abordons pas cette question dans l’optique où nous devons simplement intervenir et annuler les réglementations. . . parce que nous n’avons pas pour objectif de maximiser le profit ; notre objectif est de garantir que l’AGI profite à toute l’humanité », a déclaré Anna Makanju, vice-présidente des affaires gouvernementales d’OpenAI, faisant référence à l’intelligence artificielle générale, ou au fait que les machines ont des capacités cognitives équivalentes à celles des humains.

Bien qu’il ne représente qu’une petite partie des 1 200 employés d’OpenAI, le département des affaires mondiales est l’unité la plus internationale de l’entreprise, stratégiquement positionnée dans des endroits où la législation sur l’IA est avancée. Cela comprend le déploiement de personnel en Belgique, au Royaume-Uni, en Irlande, en France, à Singapour, en Inde, au Brésil et aux États-Unis.

Cependant, OpenAI reste en retard sur ses rivaux Big Tech dans ce domaine. Selon des documents publics aux États-Unis, Meta a dépensé un montant record de 7,6 millions de dollars auprès du gouvernement américain au premier trimestre de cette année, tandis que Google a dépensé 3,1 millions de dollars et OpenAI 340 000 dollars. Concernant le plaidoyer spécifique à l’IA, Meta a nommé 15 lobbyistes, Google en a cinq et OpenAI n’en a que deux.

« En franchissant la porte, [ChatGPT had] 100mn d’utilisateurs [but the company had] trois personnes pour s’occuper de la politique publique », a déclaré David Robinson, responsable de la planification politique chez OpenAI, qui a rejoint l’entreprise en mai de l’année dernière après une carrière universitaire et conseil pour la Maison Blanche sur sa politique en matière d’IA.

« C’était littéralement au point où il y avait quelqu’un de haut niveau qui voulait une conversation, et il n’y avait personne qui pouvait répondre au téléphone », a-t-il ajouté.

L’unité des affaires mondiales d’OpenAI ne s’occupe cependant pas de certains des cas réglementaires les plus délicats. Cette tâche revient à son équipe juridique, qui s’occupe des questions liées à l’examen par les régulateurs britanniques et américains de son alliance de 18 milliards de dollars avec Microsoft ; l’enquête de la Securities and Exchange Commission des États-Unis visant à déterminer si le directeur général Sam Altman avait induit les investisseurs en erreur lors de sa brève éviction par le conseil d’administration en novembre ; et l’enquête de protection des consommateurs menée par la Federal Trade Commission des États-Unis sur l’entreprise.

Au lieu de cela, les lobbyistes d’OpenAI se concentrent sur la diffusion de la législation sur l’IA. Le Royaume-Uni, les États-Unis et Singapour font partie des nombreux pays qui réfléchissent à la manière de gouverner l’IA et consultent étroitement OpenAI et d’autres entreprises technologiques sur les réglementations proposées.

L’entreprise a participé aux discussions autour de la loi européenne sur l’IA, approuvée cette année, l’un des textes législatifs les plus avancés en matière de réglementation des modèles d’IA puissants.

OpenAI faisait partie des entreprises d’IA qui ont fait valoir que certains de leurs modèles ne devraient pas être considérés parmi ceux qui présentent un « risque élevé » dans les premières versions de la loi et seraient donc soumis à des règles plus strictes, selon trois personnes impliquées dans les négociations. Malgré cette poussée, les modèles les plus performants de l’entreprise relèveront du champ d’application de la loi.

OpenAI s’est également opposé aux efforts de l’UE visant à examiner toutes les données fournies pour ses modèles de fondation, selon des personnes proches des négociations.

La société a déclaré au FT que les données de pré-formation – les ensembles de données utilisés pour donner aux grands modèles de langage une large compréhension du langage ou des modèles – devraient être en dehors du champ d’application de la réglementation car elles constituent un mauvais moyen de comprendre les résultats d’un système d’IA. Au lieu de cela, il propose de se concentrer sur les données post-formation utilisées pour affiner les modèles pour une tâche particulière.

L’UE a décidé que, pour les systèmes d’IA à haut risque, les régulateurs peuvent toujours demander l’accès aux données de formation afin de garantir qu’elles sont exemptes d’erreurs et de biais.

Depuis que la loi européenne a été approuvée, OpenAI a embauché Chris Lehane, qui a travaillé pour le président Bill Clinton, la campagne présidentielle d’Al Gore et qui était le chef politique d’Airbnb en tant que vice-président des travaux publics. Lehane travaillera en étroite collaboration avec Makanju et son équipe.

OpenAI a également récemment débauché Jakob Kucharczyk, ancien responsable de la compétition chez Meta. Sandro Gianella, responsable de la politique européenne et des partenariats, a rejoint le groupe en juin de l’année dernière après avoir travaillé chez Google et Stripe, tandis que James Hairston, responsable de la politique internationale et des partenariats, a rejoint Meta en mai de l’année dernière.

La société a récemment été impliquée dans une série de discussions avec des décideurs politiques aux États-Unis et sur d’autres marchés autour du modèle Voice Engine d’OpenAI, qui peut cloner et créer des voix personnalisées, ce qui a conduit la société à restreindre ses projets de publication en raison d’inquiétudes quant aux risques liés à la manière dont il pourrait être utilisé. dans le contexte des élections mondiales de cette année.

L’équipe a organisé des ateliers dans des pays confrontés à des élections cette année, comme le Mexique et l’Inde, et publié des conseils sur la désinformation. Dans les pays autocratiques, OpenAI accorde un accès individuel à ses modèles à des « personnes de confiance » dans les zones où il juge qu’il n’est pas sûr de commercialiser ses produits.

Un responsable gouvernemental qui a travaillé en étroite collaboration avec OpenAI a déclaré qu’une autre préoccupation de l’entreprise était de garantir que les règles seraient flexibles à l’avenir et deviendraient obsolètes avec les nouvelles avancées scientifiques ou technologiques.

OpenAI espère remédier à certaines gueules de bois de l’ère des médias sociaux, qui, selon Makanju, ont conduit à une « méfiance générale à l’égard des entreprises de la Silicon Valley ».

« Malheureusement, les gens voient souvent l’IA sous le même angle », a-t-elle ajouté. « Nous passons beaucoup de temps à nous assurer que les gens comprennent que cette technologie est très différente et que les interventions réglementaires qui lui sont utiles seront très différentes. »

Cependant, certaines personnalités du secteur critiquent l’expansion du lobbying d’OpenAI.

« Au départ, OpenAI recrutait des personnes profondément impliquées dans la politique et des spécialistes de l’IA, alors qu’aujourd’hui, ils recrutent simplement des lobbyistes technologiques ordinaires, ce qui est une stratégie très différente », a déclaré une personne qui s’est directement engagée avec OpenAI dans l’élaboration d’une législation. .

« Ils veulent simplement influencer les législateurs de la même manière que les grandes technologies le font depuis plus d’une décennie. »

Robinson, responsable de la planification d’OpenAI, a déclaré que l’équipe des affaires mondiales avait des objectifs plus ambitieux. « La mission est sûre et largement bénéfique, et alors qu’est-ce que cela signifie ? Cela signifie créer des lois qui non seulement nous permettent d’innover et d’apporter une technologie bénéfique aux gens, mais qui aboutissent également à un monde où la technologie est sûre.

Reportage supplémentaire de Madhumita Murgia à Londres

Vidéo : IA : une bénédiction ou une malédiction pour l’humanité ? | Technologie FT



ttn-fr-56