OpenAI met en garde contre la scission avec l’Europe à mesure que la réglementation progresse


Le chef d’OpenAI, Sam Altman, a averti que les efforts de Bruxelles pour réglementer l’intelligence artificielle pourraient conduire le fabricant de ChatGPT à retirer ses services de l’UE, signe le plus frappant à ce jour d’une rupture transatlantique croissante sur la manière de contrôler la technologie.

S’adressant aux journalistes lors d’une visite à Londres cette semaine, Altman a déclaré qu’il avait « de nombreuses inquiétudes » concernant le projet de loi sur l’IA de l’UE, qui devrait être finalisé l’année prochaine. En particulier, il a souligné une décision du Parlement européen ce mois-ci d’étendre sa proposition de réglementation pour inclure la dernière vague de technologies d’IA à usage général, y compris de grands modèles de langage tels que le GPT-4 d’OpenAI.

« Les détails comptent vraiment », a déclaré Altman. « Nous essaierons de nous conformer, mais si nous ne pouvons pas nous y conformer, nous cesserons nos activités. »

L’avertissement d’Altman intervient alors que les entreprises technologiques américaines se préparent à ce que certains prédisent être une bataille interminable avec les régulateurs européens au sujet d’une technologie qui a secoué l’industrie cette année. Le directeur général de Google, Sundar Pichai, a également visité les capitales européennes cette semaine, cherchant à influencer les décideurs politiques alors qu’ils développent des « garde-fous » pour réglementer l’IA.

La loi sur l’intelligence artificielle de l’UE a été initialement conçue pour traiter des utilisations spécifiques et à haut risque de l’intelligence artificielle, telles que son utilisation dans des produits réglementés tels que les équipements médicaux ou lorsque les entreprises l’utilisent dans des décisions importantes, notamment l’octroi de prêts et la prise de décisions d’embauche.

Cependant, la sensation provoquée par le lancement de ChatGPT à la fin de l’année dernière a provoqué une refonte, le Parlement européen établissant ce mois-ci des règles supplémentaires pour les systèmes largement utilisés qui ont des applications générales au-delà des cas précédemment ciblés. La proposition doit encore être négociée avec les États membres et la Commission européenne avant que la loi n’entre en vigueur d’ici 2025.

Le dernier plan exigerait que les fabricants de «modèles de base» – les grands systèmes qui sous-tendent des services tels que ChatGPT – identifient et tentent de réduire les risques que leur technologie pourrait poser dans un large éventail de contextes. La nouvelle exigence rendrait les entreprises qui développent les modèles, y compris OpenAI et Google, partiellement responsables de la façon dont leurs systèmes d’IA sont utilisés, même si elles n’ont aucun contrôle sur les applications particulières dans lesquelles la technologie a été intégrée.

Les dernières règles obligeraient également les entreprises technologiques à publier des résumés des données protégées par le droit d’auteur qui avaient été utilisées pour former leurs modèles d’IA, ouvrant la voie aux artistes et autres pour tenter de réclamer une compensation pour l’utilisation de leur matériel.

La tentative de réglementer l’IA générative alors que la technologie n’en est qu’à ses balbutiements a montré une « peur de la part des législateurs, qui lisent les gros titres comme tout le monde », a déclaré Christian Borggreen, responsable européen de la Computer and Communications Industry Association, basée à Washington. . Les entreprises technologiques américaines avaient soutenu le plan antérieur de l’UE visant à réglementer l’IA avant la réaction « instinctive » à ChatGPT, a-t-il ajouté.

Les entreprises technologiques américaines ont exhorté Bruxelles à agir avec plus de prudence lorsqu’il s’agit de réglementer la dernière IA, arguant que l’Europe devrait prendre plus de temps pour étudier la technologie et déterminer comment équilibrer les opportunités et les risques.

Pichai a rencontré mercredi des responsables à Bruxelles pour discuter de la politique en matière d’IA, notamment Brando Benifei et Dragoş Tudorache, les principaux députés européens en charge de la loi sur l’IA. Pichai a souligné la nécessité d’une régulation appropriée de la technologie qui n’étouffe pas l’innovation, selon trois personnes présentes à ces réunions.

Pichai a également rencontré Thierry Breton, le chef numérique de l’UE qui supervise la loi sur l’IA. Breton a déclaré au Financial Times qu’ils avaient discuté de l’introduction d’un «pacte d’IA» – un ensemble informel de directives auxquelles les entreprises d’IA devraient se conformer, avant que des règles formelles ne soient mises en vigueur car il n’y avait «pas de temps à perdre dans la course à l’IA pour construire un coffre-fort environnement en ligne ».

Les critiques américains affirment que la loi sur l’IA de l’UE imposera de nouvelles responsabilités étendues pour contrôler les risques des derniers systèmes d’IA sans en même temps établir des normes spécifiques qu’ils sont censés respecter.

S’il est trop tôt pour prédire les effets pratiques, la nature ouverte de la loi pourrait amener certaines entreprises technologiques américaines à repenser leur implication en Europe, a déclaré Peter Schwartz, vice-président senior de la planification stratégique de la société de logiciels Salesforce.

Il a ajouté que Bruxelles « agira sans référence à la réalité, comme elle l’a fait auparavant » et que, sans aucune entreprise européenne à la tête de l’IA avancée, les politiciens du bloc ont peu d’incitations à soutenir la croissance de l’industrie. « Ce seront essentiellement des régulateurs européens qui réglementeront les entreprises américaines, comme cela a été le cas tout au long de l’ère informatique. »

Les propositions européennes s’avéreraient réalisables si elles conduisaient à « des exigences continues pour les entreprises de se tenir au courant des dernières recherches [on AI safety] et la nécessité d’identifier et de réduire continuellement les risques », a déclaré Alex Engler, membre de la Brookings Institution à Washington. « Une partie du flou pourrait être comblée ultérieurement par la CE et par les organismes de normalisation. »

Alors que la loi semblait viser uniquement les grands systèmes tels que ChatGPT et le chatbot Bard de Google, il y avait un risque qu’elle « touche les modèles open source et l’utilisation à but non lucratif » de la dernière IA, a déclaré Engler.

Les dirigeants d’OpenAI et de Google ont déclaré ces derniers jours qu’ils soutenaient une éventuelle réglementation de l’IA, bien qu’ils aient appelé à une enquête et un débat plus approfondis.

Kent Walker, président des affaires mondiales de Google, a dit dans un article de blog la semaine dernière, la société a soutenu les efforts visant à établir des normes et à parvenir à un large accord politique sur l’IA, comme ceux en cours aux États-Unis, au Royaume-Uni et à Singapour – tout en évitant ostensiblement de faire des commentaires sur l’UE, qui est la plus avancée dans l’adoption règles spécifiques.

Le calendrier politique signifie que Bruxelles peut choisir d’aller de l’avant avec sa proposition actuelle plutôt que d’essayer d’élaborer des règles plus spécifiques à mesure que l’IA générative se développe, a déclaré Engler. Prendre plus de temps pour affiner la loi sur l’IA risquerait de la retarder au-delà du mandat de la présidence actuelle de l’UE, ce qui pourrait remettre l’ensemble du plan sur la planche à dessin, a-t-il ajouté.



ttn-fr-56