Les droits de l’homme jouent également un rôle dans l’IA, c’est pourquoi Jan Kleijssen travaille sur un traité

Des prisons contrôlées par ordinateur où – à part les détenus – aucun être humain n’est impliqué. Système de justice automatisé avec verdicts crachés numériquement. Programmes de traduction universels. Algorithmes qui prennent des décisions médicales dans les hôpitaux hybrides. Sélection du personnel par ordinateur. Presque tout semble possible bientôt ou déjà maintenant en raison de l’essor qu’a pris l’intelligence artificielle (IA).

Avec les possibilités, il en va de même pour les inquiétudes et les craintes concernant l’émergence d’un État de surveillance numérique. Et quelle est la fiabilité des systèmes d’IA ? Récemment, des experts américains ont averti que les scientifiques traitent souvent les programmes d’IA avec négligence et s’appuient trop facilement sur des systèmes qui ne sont pas étanches ou qui sont mal utilisés.

Une meilleure formation des professionnels travaillant avec l’IA est nécessaire

De nouveaux accords contraignants sont en cours de préparation. Le Conseil de l’Europe travaille sur une convention pour garantir que l’utilisation de l’IA ne viole pas les droits de l’homme ou ne sape pas les fondements de l’État de droit et de la démocratie. Un groupe de travail travaillant sur un projet de traité se réunira à nouveau cette semaine. L’objectif est un traité international sur l’IA et la protection des droits de l’homme.

Jan Kleijssen, le directeur néerlandais des droits de l’homme, est convaincu qu’il s’agit d’une tâche pour le Conseil, déclare-t-il dans une interview en ligne. “Le Conseil a reconnu très tôt que si vous voulez protéger les droits de l’homme, l’État de droit et la démocratie, les nouvelles technologies doivent également faire l’objet d’une attention.” Il évoque le premier traité pour la protection des données personnelles de 1981, la Convention 108, qui a été ratifiée par 55 pays, dont les Pays-Bas.

Convention contre la cybercriminalité

Le Conseil a également pris l’initiative du premier traité international contre la cybercriminalité (2001), auquel 68 États sont désormais parties. Kleijssen : “C’est le seul traité de ce genre au monde.” Depuis l’arrivée d’internet, le Conseil a également formulé une série de recommandations sur, par exemple, le rôle en ligne des médias, la protection des enfants et les soins de santé.

Un groupe de travail a émis des avis exploratoires sur l’IA il y a deux ans. Conclusion : la réglementation existante présentait des lacunes. Cela a conduit à la mission du comité des ministres de l’UE de préparer un traité sur l’IA et les droits de l’homme.

Quelles sont les lacunes? Kleijssen résume : « Il n’y a pas de base légale pour l’utilisation correcte de l’IA par les gouvernements. La vue d’ensemble des ensembles de données utilisés dans toutes sortes d’applications est insuffisante. Une meilleure formation des professionnels travaillant avec l’IA est nécessaire. Les citoyens devraient être informés si une décision qui les concerne a été prise par un système d’IA. Un recours est requis contre une telle décision. Dans le secteur privé et avec les gouvernements.

Piège de apprentissage automatique

De nombreux exemples de ce qui peut mal tourner. « Aux États-Unis, une expérience a été menée avec l’automatisation de la question de savoir si un suspect pouvait être libéré sous caution. Que s’est-il passé ? Si le suspect était blanc, il était libéré sous caution, un suspect de couleur devait rester assis. Comment est-ce arrivé? Parce que l’ensemble de données utilisé était basé sur la population carcérale actuelle aux États-Unis.

C’est l’écueil bien connu de apprentissage automatique: les ordinateurs apprennent des données que vous y mettez. Amazon a également dû s’en occuper. “Ils ont annoncé qu’ils n’utilisaient plus de système d’IA pour le recrutement. Il s’est avéré que les femmes n’ont pas réussi la première sélection, car le système était basé sur la composition actuelle de la direction. Il a donc conclu que les femmes ne sont pas aptes à occuper des postes de direction. Un autre: “En Autriche, les mères célibataires et les personnes handicapées ne se sont pas vu proposer de travail parce que le système a décidé qu’elles n’étaient pas adaptées sur la base du marché du travail existant.”

Le Conseil d’Etat a admis qu’il fallait faire autrement

La cerise sur le gâteau a été le scandale des prestations aux Pays-Bas. « La tragédie a été largement remarquée. C’est devenu une norme pour ce qui peut mal tourner avec l’IA. Les pays ont commencé à se demander : est-ce que cela peut aussi nous arriver ? Certains pays hésitaient encore, les Pays-Bas en tête. “C’était le plus sur les freins, mais il a complètement viré de bord.” Les ministères de la Justice ont été rapidement convaincus, mais les ministères des Affaires économiques craignaient que la réglementation ne se fasse au détriment de l’innovation. A tort, pense Kleijssen. “Regardez l’industrie pharmaceutique, l’industrie la plus réglementée au monde et l’une des plus innovantes.”

Le texte du traité devrait être prêt d’ici la fin de l’année prochaine, après quoi il pourra être soumis aux États membres. Une liste de contrôle avec les règles que l’utilisation des systèmes d’IA doit respecter est en préparation. L’ensemble de données est-il en ordre, le personnel est-il bien formé et compétent ? Existe-t-il une opportunité de carrière pour les citoyens?

Une thérapie de choc

La justice devra également s’adapter. „Le Conseil d’État a subi une thérapie de choc avec le scandale des allocations et a admis qu’il fallait faire les choses différemment. Un plus pour les Pays-Bas. Nous ne cachons pas l’affaire. »

Certaines applications de l’IA seront exclues du traité, si cela appartient au groupe de travail. Kleijssen : « Ce que nous voulons interdire, c’est notation sociale comme en Chine, établir un système de points pour les citoyens. Nous ne voulons pas non plus que le gouvernement utilise la reconnaissance faciale pour collecter des données privées auprès des citoyens, telles que les préférences sexuelles.

Des règles sont également nécessaires pour les méga-entreprises qui modèrent le contenu en ligne. Kleijssen : “Une grande partie de la modération de contenu est effectuée par les systèmes d’IA, ce qui peut conduire à des bulles d’information unilatérales et auto-renforcées. Et donc à la polarisation. Il s’agit pour les entreprises de prendre leur responsabilité de s’assurer que leur offre d’information reste hétérogène et ne va pas à sens unique.

Comment ça va? En octobre, Kleijssen a été reçu à la Maison Blanche pour discuter de la contribution des États-Unis aux négociations. « Les Américains participent également. Ils ont maintenant un plan pour une déclaration nationale des droits de l’IA, en partie inspirée par notre travail. » Une puissance eurasienne n’est plus en cause : la Russie, expulsée du Conseil de l’Europe après l’invasion de l’Ukraine.



ttn-fr-33