Bruxelles fermera-t-il ChatGPT ? Le monde de la technologie regarde avec intensité

Mercredi, le Parlement européen votera une nouvelle législation qui devrait réglementer l’utilisation de l’intelligence artificielle. Pour les entreprises technologiques, les enjeux sont importants. Le PDG d’OpenAI, Sam Altman, du populaire ChatGPT, menacé le mois dernier pour obtenir tous ses logiciels d’Europe si l’UE impose trop de restrictions. Il a peur de ce qu’ils appellent «l’effet Bruxelles» aux États-Unis: d’abord les entreprises technologiques américaines se conforment aux règles plus strictes imposées par l’Europe sous de vives protestations, puis d’autres pays introduisent des lois similaires. Cela s’est produit avec la législation sur la protection de la vie privée que l’UE a introduite en 2016. Avec le «Digital Markets Act» et le «Digital Services Act» de 2022, l’Europe est également à la pointe de la réglementation technologique. Qu’en est-il de la nouvelle loi sur l’IA ?

1 De quoi sera-t-il question mercredi au Parlement européen ?

La soi-disant «loi européenne sur l’IA» – un projet de loi étendu qui devrait réglementer l’intelligence artificielle de toutes sortes de manières. Les formes d’IA les plus risquées devraient même être interdites en Europe, par exemple les systèmes de notation sociale tels que ceux utilisés par le gouvernement chinois. Des règles strictes sont imposées sur l’application des autres systèmes d’IA, notamment sur la transparence, l’utilisation des données personnelles et la consommation d’énergie.

La loi IA a déjà été présentée par la Commission européenne en 2021, ce qui signifie que certaines dispositions sont déjà dépassées. Les députés ajoutent donc mercredi des règles strictes à la proposition pour les grands systèmes d’IA tels que ChatGPT – le modèle de langage qui a été largement utilisé pour générer du texte depuis l’année dernière. Avant qu’un tel système ne soit autorisé en Europe, une entreprise d’IA doit faire une analyse des risques de l’application dans la pratique et être transparente sur les données qu’elle utilise.

Reste à savoir ce mercredi si les députés voteront également une interdiction totale de l’utilisation des temps réel reconnaissance faciale (immédiate). Les groupes politiques de gauche en particulier le préconisent, tandis que les chrétiens-démocrates craignent des obstacles pour les services d’enquête.

Le dernier mot n’a pas été dit mercredi sur la loi IA : les négociations avec les États membres européens suivront d’abord. Une fois terminé plus tard cette année, l’Europe serait un leader mondial de la réglementation de l’IA. La mise en œuvre après un accord peut prendre un certain temps. La loi IA ne s’appliquerait réellement que dans deux ans au plus tôt. C’est pourquoi Bruxelles travaille sur un “pacte IA” qui peut être déployé rapidement, dans lequel de grandes entreprises technologiques telles que Google et Microsoft concluent des accords volontaires. Au Royaume-Uni, des entreprises américaines ont déjà offert au gouvernement aperçu dans le fonctionnement de leurs modèles d’IA.

2 L’Europe a-t-elle appris quelque chose de toutes les discussions autour des Big Tech ?

Oui – ce non-engagement et ce volontariat ne fonctionnent généralement pas malgré toutes les promesses. Pour cette raison, Bruxelles a déjà introduit des règles de confidentialité de grande envergure et travaille actuellement à la mise en œuvre d’une législation qui devrait briser l’omnipotence des géants de la technologie. Les entreprises technologiques seront bientôt obligées d’autoriser la concurrence sur leurs plateformes et de supprimer le matériel illégal de manière beaucoup plus stricte. L’expérience de la réglementation technologique renforce désormais les politiciens européens dans leur tentative de faire de même pour l’IA.

Bruxelles sait aussi à quel point il est difficile de frapper vraiment les grandes entreprises. Jusqu’à présent, une seule amende très importante a été infligée pour violation de la loi sur la protection de la vie privée – récemment 1,2 milliard d’euros pour Meta.

3 Tout le monde n’essaie-t-il pas de contourner les règles à venir à leur guise ?

Tout le monde s’accorde sur une chose : les gouvernements doivent se dépêcher de réglementer pour maintenir l’IA sur la bonne voie. Le lobby pour influencer les décideurs politiques bat son plein.

Le 9 mars, environ un millier de scientifiques et de chefs d’entreprise ont appelé à une “pause de développement” temporaire de l’IA. Les développements vont si vite, a conclu le groupe, qu’il fallait appuyer sur le bouton pause. Une nouvelle lettre a suivi en mai, cette fois également signée par le PDG d’OpenAI, Sam Altman, appelant à faire de l’IA “une priorité mondiale”. Et mardi, un groupe de scientifiques, de faiseurs d’opinion et d’artistes néerlandais a lancé une pétition appelant les Pays-Bas à se dépêcher d’adopter une législation sur l’IA.

Les entreprises technologiques disent également qu’elles ont besoin de règles pour contrôler leur technologie – et celle de leurs concurrents.

4 Comment les superpuissances chinoises et américaines perçoivent-elles les nouvelles formes d’IA ?

La Chine s’emploie à réglementer ‘fournisseurs de services de synthèse profonde‘, des entreprises qui génèrent des textes, des images ou des vidéos avec l’IA. En avril, le cyber-régulateur chinois a publié un liste provisoire avec des lignes directrices. Les données sur lesquelles les modèles sont formés doivent être “objectives, diversifiées et précises” et le contenu créé par l’intelligence artificielle doit correspondre à l’état d’esprit de l’État chinois. De cette façon, le gouvernement conserve la possibilité de censurer ce que l’IA invente.

La Chine place toute la responsabilité des médias synthétiques sur les entreprises développant les modèles d’IA. Tout le contenu créé par l’IA obtient un étiqueter. Les fournisseurs d’IA doivent également avoir mis en place des mécanismes pour lutter contre les “rumeurs” ou les fausses nouvelles. De plus, les citoyens doivent s’inscrire avec leur vrai nom s’ils utilisent les services d’IA.

OpenAI, Google, Meta ; de nombreux grands fournisseurs d’IA viennent d’Amérique. Les États-Unis n’ont pour l’instant pris aucune mesure restrictive et semblent attendre de voir ce que l’Europe décidera de la réglementation de l’IA. L’année dernière, les États-Unis ont déjà donné un coup de pouce pour un Constitution pour protéger les droits civils contre les applications dangereuses de l’IA. En mai, l’administration Biden a investi 140 millions de dollars en financement public projets de recherche à l’intelligence artificielle. L’accent est mis à Washington sur la construction d’une IA plus puissante en Amérique, afin de ne pas perdre la course technologique avec la Chine.



ttn-fr-33