L’intelligence artificielle est-elle humaine ? La question n’est pas vide. Et la réponse est oui


Ll’intelligence artificielle est-elle l’homme ? La question n’est pas vide. Et la réponse est oui, l’IA n’est pas aussi neutre qu’on pourrait s’y attendre, et il est beaucoup plus probable qu’il s’agisse d’un homme que d’une femme. Ce n’est pas seulement parce que les informaticiens et les programmeurs qui leur donnent vie sont – partout sur la planète – en très grande majorité des hommes.

Une image du film Coded Bias de Joy Buolamwini sur les risques de l’utilisation non réglementée de l’intelligence artificielle qui, dans son cas, ne « reconnaissait » pas le visage d’une femme noire. Sur cette photo, la reconnaissance faciale permet à un locataire d’accéder à son logement. Cependant, diverses données sensibles sont associées aux données anthropométriques (comme – avant-dernière ligne – le nombre de retards de paiement des loyers).

L’intelligence artificielle est masculine car elle consiste, par essence, à redessiner la planète à partir du modèle économique, social, symbolique qui dominecelui qui, en fait, continue avec un automatisme ordonné à favoriser les mâles, au détriment de l’autre moitié. L’Unesco, alarmée par la dérive discriminatoire sous-jacente à cette révolution massive et perturbatrice, a réuni les 193 pays membres autour de la table pour comprendre comment réagir: « Les algorithmes et les systèmes d’intelligence artificielle ont le pouvoir de propager et renforcer les stéréotypes et les préjugés sexistes, qui risquent de marginaliser les femmes à l’échelle mondiale. Compte tenu de la présence croissante de l’intelligence artificielle dans nos sociétés, cela pourrait mettre les femmes en position de retard dans les sphères économiques, politiques et sociales », écrit l’Organisation des Nations Unies pour l’éducation, la science et la culture dans son Rapport 2020 Intelligence artificielle et égalité des genres.

Si l’algorithme est biaisé

Preuve de l’éloignement des algorithmes neutres se cristalliser si les nombreux écarts hommes-femmes n’augmentent pas jusqu’à les rendre irrécupérables sont désormais nombreuses et pressantes. Parmi les cas qui ont fait école il y a celui de La carte de crédit Apple de Goldman Sachs, accusée à ses débuts de discriminer les femmes parce que ses algorithmes fixeraient des plafonds de dépenses inférieurs pour les femmes, En tant que tel. Tweets célèbres d’entrepreneurs technologiques célèbres – comme David Heinemeier Hanssonle programmeur du très célèbre framework de développement web Rubis – qui se demandaient, étonnés, comment il était possible que leurs épouses, avec lesquelles ils vivaient en communion de biens ou de comptes bancaires partagés, soient jugées moins fiables qu’eux et méritaient donc des plafonds de dépenses nettement inférieurs. L’algorithme s’est avéré non moins sexiste qu’Amazon il s’est développé pour identifier des candidats potentiels en surfant sur le web et a abandonné aussitôt dès qu’il s’est rendu compte qu’il marginalisait les femmes pour les emplois techniques comme, par exemple, le développeur de logiciels.

Atlas, le premier robot humanoïde qui court dans les bois

« Vice » de l’humanité

« Le fait est que l’intelligence artificielle tombe involontairement dans les préjugés et la discrimination exactement comme le fait l’esprit humain parce qu’en fin de compte, l’algorithme est un artefact humain » explique Alessandra Saladirecteur de l’intelligence artificielle et de la science des données de la plateforme américaine Shutterstock et président mondial de Les femmes en IA, association à but non lucratif qui agit dans 120 pays en faveur d’une Intelligence Artificielle juste, éthique et inclusive.

L’iniquité réside dans la méthode

Nous demandons à Alessandra Sala de nous expliquer facilement le mécanisme par lequel l’algorithme prend une décision injuste est compréhensible. «Prenons un programme d’intelligence artificielle développé dans le domaine informatique d’une grande entreprise pour effectuer, lors de l’ouverture de nouveaux postes, le premier écrémage grossier parmi des centaines de programmes disponibles. Disons que le poste vacant est dans le domaine de la technologie. Pour que l’algorithme identifie le candidat ou le candidat avec les meilleures compétences et capacités absolues, le spécialiste qui le programme doit d’abord identifier les caractéristiques qui peuvent être associées au succès. Très probablement, le professionnel reconnaîtra d’abord, dans le large vivier de salariés actuels et passés du groupe, ceux qui ont construit une carrière valable au fil du temps, puis à partir de chacun d’eux il extrapolera des données telles que le sexe, le type de haute l’école, la faculté et l’université fréquentées plutôt que le grade du diplôme ou, peut-être, la zone géographique d’origine et ainsi de suite » explique Sala. « Le programmeur, en substance, va construire des corrélations entre le succès et une série de données historiques qu’il a choisi de privilégier et va les enseigner à l’intelligence artificielle. C’est le point: si, comme cela arrive souvent, les femmes qui réussissent dans le secteur de la technologie sont et ont toujours été bien moins nombreuses que les hommesl’algorithme finira sous-estimer la relation entre les femmes et le succès et, avec cela, favoriser les candidatures masculines », souligne le dirigeant.

« Il en va de même si le programmeur établit une corrélation entre le succès et le fait d’être issu d’universités d’excellence, car traditionnellement les meilleurs en sont issus.: le résultat est que les processus de sélection continueront d’exclure des origines différentes, avec de graves dommages pour de nombreuses personnes parfaitement formées, mais aussi pour les entreprises elles-mêmes, qui risquent de perdre des talents potentiels. Si mon CV avait été sélectionné avec un processus d’IA, je n’existerais probablement pas à cet endroit maintenant» raconte Alessandra Sala.

Elle dit qu’en tant qu’étudiante universitaire – très jeune, femme, d’ailleurs venant du Sud et d’une université pas parmi les plus connues – a eu un entretien avec un professeur venu en Italie de l’Université de Californie à Santa Barbara. « Même mes publications étaient inférieures à celles vantées par d’autres candidats, mais le professeur ne s’est pas arrêté aux données rapportées dans le curriculum vitae : au cours de ce face à face, vif et articulé, il a évidemment entrevu un potentiel, entrevu un avenir, puis m’a appelé aux États-Unis. Ça a changé ma vie », se souvient-il.

Former le stéréotype

« Le vrai point, celui qui brûle, c’est que les femmes sont toujours sous-représentées dans la masse monstrueuse de données qui alimente l’intelligence artificielle: l’apprentissage automatique – c’est-à-dire le sous-ensemble de l’intelligence artificielle qui apprend automatiquement à partir des données qu’il reçoit – perpétue systématiquement cette inégalité. De plus, en plus d’être sous-représentés, ils sont fréquemment associés à des concepts bâtis sur des préjugés », conclut le président de Les femmes en IA. Juste pour donner un exemple, les algorithmes des applications texte-image sont capables de créer des images belles et parfaites de n’importe quel sujet à partir de zéro, sur la base d’une simple description textuelle de ce que vous voulez représenter. L’algorithme, en effet, a été formé en lui faisant assimiler une énorme quantité d’images tirées du Web avec les légendes relatives qui les décrivent et lui apprenant à reconnaître le lien entre la figure et la description. C’est dommage que, si on vous demande de produire des images associées au terme avocat ou PDG, un système qui n’est pas formé pour surmonter les préjugés sexistes traitera probablement des personnages masculinsmais si la demande vise à représenter le travail de l’infirmière ou d’une assistante personnelle, les personnes représentées seront très majoritairement des femmes, confirmant la vision stéréotypée et encore répandue des métiers d’hommes et des métiers de femmes, les premiers de plus en plus qualifiés et rémunérateurs dernier.

Du préjugé à la règle partagée

Bref, si on produit des données conditionnées par le sexisme, la discrimination, les inégalités existantes, les algorithmes apprennent le sexisme et les inégalités et, grâce à l’apprentissage automatique, ils les automatisent jusqu’à ce qu’ils deviennent une règle. « Le risque est que ces dynamiques, qui ont un pouvoir de décision sur la vie des gens, s’automatisent et fassent partie de l’intelligence artificielle et deviennent donc perpétuelles et, avec le temps, si opaques et puissantes qu’il est difficile de les contester. Même les lois anti-discrimination ont du mal à les identifier et à les frapper », dit-il Ivana BartolettiVisiting Policy Fellow à l’Université d’Oxford et auteur de Une révolution artificielle : sur le pouvoir, la politique et l’IA.

La menace fantôme

Tout cela se passe dans l’indifférence sociale généralisée : les algorithmes et leurs systèmes de prise de décision automatisés imprègnent désormais tous les aspects de notre vie et les préjugés se créent et se propagent de différentes manières, mais nous, qui dans l’imaginaire tendons à réduire l’intelligence artificielle à des des créations comme des robots et des androïdes, nous n’avons pas encore construit une prise de conscience adéquate de cela» ajoute Bartoletti qui est également co-fondateur de Réseau des femmes leaders en IAun réseau féminin qui sensibilise la technologie et la politique pour apporter de la transparence au monde de l’Intelligence Artificielle. Bartoletti tient à préciser que les inégalités que l’intelligence artificielle peut reproduire ne sont certainement pas épuisées en termes de genre..

Se sentir invisible

C’est devenu un film – Biais codédécerné à Festival de Sundance en 2020 l’expérience d’un chercheur en couleur du MIT à Boston – Joy Buolamwini, ghanéenne naturalisée américaine -, qui partant de son expérience personnelle a enquêté sur les algorithmes peuvent nuire aux minorités. Les systèmes de reconnaissance faciale développés par des sociétés informatiques bien connues ont échoué lorsque son visage a été encadré par la caméra, l’empêchant ainsi d’accéder. Mais dès qu’elle l’a recouvert d’un masque blanc, le visage a été reconnu.

A travers le projet Nuances de genre (nuances de genre), la chercheuse a donc démontré comment différents logiciels ont beaucoup plus de mal à reconnaître les femmes que les hommes, en particulier les femmes à la peau foncée. Aujourd’hui Joy Buolamwini, qui a été entendue devant le Congrès des États-Unis pour ses travaux, est à la tête du programme Ligue de justice algorithmiquequi vise à rappeler la responsabilité dans la planification.

L’intelligence artificielle, un environnement à protéger

Comment ça sort ? Les États élaborent une législation pour réglementer les algorithmes: l’UE, par exemple, a proposé une Règlement sur l’intelligence artificielle sur lequel la table est encore ouverte. «Aux États-Unis, le National Institute of Standards and Technology a formulé un certain nombre de recommandations pour éviter les distorsions. Les règles sont fondamentales » précise Bartoletti, convaincu que l’environnement technologique doit être protégé, par la réglementation, exactement comme l’environnement naturel. Alors ils doivent être là plus de femmes pour concevoir l’Intelligence Artificielle et des équipes technologiques nourries d’une grande diversité d’horizons, car tant que seuls des hommes blancs conçoivent, il n’y aura qu’une seule perspective et une seule direction.

«Les entreprises ont à leur disposition des processus techniques et mathématiques e de nombreux outils pour obtenir des résultats plus équitables, mais cela suppose qu’il y ait une volonté claire de le faire, en somme, qu’un choix éthique est fait » ajoute Bartoletti. Enfin, dit-il dans un Ted, « nous avons besoin que chacun de nous développe sa curiosité sur le sujet et, exactement comme nous le faisons lorsque nous étudions l’étiquette d’un produit alimentaire que nous avons l’intention d’acheter et regardons de quoi il est fait, demandez-vous , devant ces artefacts technologiques, de quelles données ils ont été nourris, où ils ont été créés, à quel point ils sont transparents, et vous cherchez des informations sur les décisions qu’ils prennent. Sans jamais supposer que ces décisions sont neutres, car elles ne peuvent pas être neutres. La technologie est belle, l’intelligence artificielle est belle car il a des locaux immenses pour tout le monde, mais il faut s’assurer que l’innovation, c’est-à-dire si important, ne vous affirmez pas en sacrifiant les combats menés et encore inachevés sur le chemin de l’égalité« .

iO Donna © REPRODUCTION RÉSERVÉE



ttn-fr-13