Il est désormais clair comment l’Europe veut restreindre l’IA (et ainsi établir une norme mondiale)


Si les efforts avec lesquels l’accord sur l’IA a été conclu illustrent les principaux intérêts politiques et commerciaux qui le sous-tendent, on peut conclure : ils sont énormes.

Après des séances marathon d’une durée totale de 36 heures de négociations, l’Union européenne est parvenue vendredi soir à un accord sur ce qu’on appelle la loi sur l’IA.

Cela signifie que l’Europe est désormais à l’avant-garde de la réglementation de l’intelligence artificielle, ce que réclament depuis un certain temps d’éminents experts de l’IA du monde entier. Dans un rapport La présidente de la Commission européenne, Ursula von der Leyen, a salué la loi qui « offre une approche centrée sur les personnes, transparente et responsable ». […] L’IA dans l’UE », mais « contribue également de manière substantielle au développement de garde-fous mondiaux pour une IA digne de confiance ».

Tous les détails de l’accord conclu ne sont pas encore connus et le Parlement européen et les États membres de l’UE doivent également se prononcer à nouveau sur le résultat final. Mais les cadres ont été clairement définis, ce qui montre clairement comment l’Europe souhaite restreindre l’IA dans les années à venir et ainsi établir une norme mondiale.

Lire aussi
À quoi ressemblera le monde en 2040 si l’humanité autorise l’IA sans réglementation ?

Plus les risques sont grands, plus les règles sont strictes

Le principe de base de la loi est que plus les risques associés à un système d’IA sont grands, plus les règles sont strictes. Cela signifie l’interdiction des systèmes présentant un risque inacceptable, par exemple les soi-disant « systèmes de notation sociale » par les gouvernements, qui catégorisent les citoyens en fonction de leurs caractéristiques personnelles ou de leur comportement, et l’utilisation de logiciels de reconnaissance des émotions par les employeurs ou les établissements d’enseignement. Sur l’insistance du Parlement européen, il sera également interdit de prédire si une personne commettra une erreur sur la base de données personnelles – ce qui a joué un rôle dans l’affaire des allocations aux Pays-Bas.

Mais la loi contient également des exceptions, dont certaines ne sont pas encore clairement définies quant à leur portée. Au cours des négociations, les États membres de l’UE ont fortement insisté sur de larges options d’IA pour les services de sécurité et d’enquête. L’interdiction absolue de temps réel-la reconnaissance faciale, souhaitée par le Parlement européen, ne sera pas mise en œuvre pour cette raison : les services gouvernementaux peuvent utiliser de tels systèmes, entre autres, pour détecter des suspects de meurtre et prévenir des actes terroristes.

Amnesty International est, entre autres, décevante, qui a souligné dans un communiqué qu’une « interdiction absolue est vraiment nécessaire » car « aucune garantie ne peut empêcher les dommages que la reconnaissance faciale cause aux droits de l’homme ».

« C’était une bataille énorme »

L’eurodéputée Kim van Sparrentak, qui fut l’un des principaux négociateurs de GroenLinks, parle d’une « énorme bataille » qui a dû être menée avec les gouvernements de l’UE sur ce point. « J’aurais vraiment aimé plus, mais en même temps je suis heureux que nous ayons pu limiter considérablement l’utilisation. » Elle souligne par exemple que la reconnaissance faciale ne peut être utilisée que dans des cas très spécifiques visant un suspect, pour lesquels un juge doit toujours donner son autorisation préalable.

La bataille pour réglementer les modèles d’IA les plus puissants, également appelés « IA à usage général » (GPAI), y compris le célèbre chatbot ChatGPT, a été au moins aussi grande. Sous la pression d’un puissant lobby technologique, l’Allemagne, la France et l’Italie ont préconisé ces dernières semaines de retirer ces modèles de la loi, leur imposant simplement une « autorégulation ». Argument principal : des règles trop strictes entraveraient l’innovation en Europe.

Ce lobby n’a pas (complètement) réussi : les modèles GPAI seront eux aussi bientôt soumis à la loi. Cela signifie que les entreprises sous-jacentes doivent, entre autres, être transparentes sur les données avec lesquelles les modèles ont été formés. Ils doivent également se conformer à la loi européenne sur le droit d’auteur et indiquer clairement, lorsque du texte, des images ou du son sont générés, qu’ils ont été créés avec l’IA.

Pour les plus grands systèmes, dont ChatGPT, les règles vont devenir encore plus strictes : ils doivent, entre autres, procéder à des contrôles réguliers de leur éventuel impact social, limiter les risques éventuels et rendre compte de leur consommation énergétique.

Dans le même temps, il existe des exceptions ici, en particulier pour les systèmes « open source », ce qui signifie que n’importe qui peut visualiser la technologie et l’utiliser pour former son propre modèle. Ces systèmes étant naturellement plus transparents, ils ont moins d’obligations. À moins qu’ils ne soient qualifiés de « à haut risque », une définition qui n’est pas encore très claire.

Cela signifie que les sociétés européennes d’IA qui ont fait le plus de pression contre la réglementation ces dernières semaines, l’allemande Aleph Alpha et la française Mistral AI, devraient rester en partie épargnées en tant qu’entreprises open source.

Cela n’a pas pu empêcher le lobby technologique de réagir tièdement à l’accord. Le principal club de pression, DigitalEurope, a exprimé ses inquiétudes dans un communiqué quant à la difficulté pour les entreprises de se conformer aux règles, les obligeant à « dépenser davantage en avocats, au lieu d’embaucher de nouveaux développeurs d’IA ».

Pas un « livre de règles », mais un « tremplin »

Cela souligne un point sensible du débat sur la législation sur l’IA, à savoir l’accusation selon laquelle les lois et les réglementations entravent l’innovation. Dans une première déclaration sur X Le commissaire européen Thierry Breton (Marché intérieur) était déjà en avance sur ces critiques, en soulignant que la loi n’est pas seulement un « règlement », mais aussi « un tremplin permettant aux start-ups et aux chercheurs européens de mener la course mondiale à l’IA ».

L’Europe espère que les règles, comme cela s’est déjà produit pour celles concernant la vie privée, seront finalement (en partie) adoptées à l’échelle mondiale. Mais il est incertain que cela se produise. Il apparaît déjà clairement que l’UE est encore loin derrière les États-Unis et la Chine dans la course mondiale à l’IA. Les plus gros modèles, soumis aux réglementations les plus strictes, pourraient donc avoir été développés exclusivement en dehors de l’Europe. Cela pourrait alimenter les soupçons de protectionnisme. Dans le même temps, on dit à Bruxelles que la charge administrative supplémentaire pour ce type de modèles à grande échelle est éclipsée par les millions que ces types de grandes entreprises technologiques – comme OpenAI ou Google – investissent déjà.

Au printemps prochain, les députés européens et les États membres de l’UE devront à nouveau voter sur la proposition finale, après quoi la phase de mise en œuvre débutera. Les interdictions s’appliqueront ensuite au bout de six mois, mais la grande majorité du reste de la législation n’entrera en vigueur que deux ans plus tard : probablement en 2026.



Liste de lecture







ttn-fr-33