Les visages blancs générés par l’IA semblent plus « réels » que les photos


Les portraits créés par l’IA sont désormais si bons que les gens ne peuvent plus les distinguer des photos de personnes réelles. En fait, les portraits IA (du moins de personnes blanches) sont plus souvent considérés comme réels. Cela ne va pas sans problèmes.

Laurens Verhagen

S’agit-il d’une photo d’un être humain ou s’agit-il simplement de pixels représentant une personne fictive ? Il n’y a pas si longtemps, n’importe quel œil averti pouvait le voir assez facilement, mais aujourd’hui, la technologie est si performante qu’il est difficile de faire la distinction.

Cela va encore plus loin : les sujets sont plus susceptibles de trouver une photo humaine IA plutôt qu’une photo d’une personne réelle. D’après une nouvelle recherche, publiée dans la revue Sciences psychologiquesil apparaît que 69,5 % des portraits d’IA présentés sont considérés comme « réels ».

Pour les portraits humains, ce pourcentage est bien inférieur, juste au-dessus de la moitié. Les chercheurs appellent cela « l’hyperréalisme » : le fait que nous considérons une réalité créée artificiellement comme plus réelle que la réalité physique.

Une nuance importante est que des recherches antérieures ont montré que cela ne se produit qu’avec les portraits de personnes blanches. Cela est lié au fait bien connu que l’IA n’est pas sans parti pris : « Les algorithmes sont entraînés de manière disproportionnée avec des visages blancs ».

Visages moyens

Et c’est problématique, disent les chercheurs : « Si les visages de l’IA semblent plus réalistes pour les visages blancs que pour d’autres groupes, leur utilisation confondra la perception de l’appartenance ethnique avec la perception d’être « humain ». Ils estiment que les futurs modèles d’IA devraient être mieux formés et plus équitablement.

Iris Groen, professeur adjoint de neurosciences computationnelles à l’Université d’Amsterdam et non impliquée dans cette recherche, la qualifie d’étude intéressante : « Ce qui est formidable, c’est que les chercheurs recherchent une explication psychologique au phénomène de l’hyperréalisme et à partir de là ils retournent à l’informatique.

Cette explication réside en partie dans le fait que les gens considèrent les visages « moyens » comme réalistes. C’est exactement ce que les systèmes d’IA (dans ce cas l’algorithme StyleGAN2) apprennent : un visage proportionnel moyen basé sur le grand nombre de portraits avec lesquels ils ont été formés.

Les portraits sont le plus souvent qualifiés de « humains ». À tort dans quatre cas sur cinq.Image Sciences Psychologiques

Désinformation

Les chercheurs développent les connaissances existantes qui expliquent comment les gens distinguent et se souviennent des visages. « Ce qui est intéressant dans cette étude, c’est que les sujets ont utilisé ces caractéristiques spécifiques, mais dans certains cas de la mauvaise manière », explique Groen. Un visage qui a les bonnes proportions ? Alors ça doit être humain.

Une autre conclusion frappante de l’étude est que les personnes les plus convaincues de leurs propres capacités commettent le plus d’erreurs, un phénomène en psychologie connu sous le nom d’effet Dunning-Kruger. Les conséquences pourraient être majeures : si les gens ne peuvent plus évaluer ce qu’est l’IA et ce qui est réel, le risque est grand qu’ils tombent dans le piège de la désinformation. Une idée importante, selon Groen : « Il n’est pas nécessairement nécessaire de former les gens à mieux distinguer le vrai du faux. Ce serait une bonne chose s’ils se rendaient compte que leur jugement n’est pas toujours correct.»

L’IA elle-même peut faire une bien meilleure distinction entre les photos synthétiques et réelles. Theo Gevers, professeur de vision par ordinateur à l’université d’Amsterdam, a développé un algorithme de détection appelé Deepfact. Cela donne une évaluation correcte pour pas moins de 98,7 pour cent des photos prises par StyleGan2. « Un score presque parfait », a déclaré Gevers.



ttn-fr-31