La vidéo Facebook de Biden incite à enquêter sur la politique relative au contenu Meta


Débloquez gratuitement Editor’s Digest

Meta fait face à une révision de sa politique en matière de contenus manipulés et de « deepfakes » créés par l’intelligence artificielle, après que les modérateurs de l’entreprise ont refusé de supprimer une vidéo de Facebook décrivant à tort le président américain Joe Biden comme un pédophile.

Le Conseil de surveillance de l’entreprise de la Silicon Valley, un organe indépendant de type Cour suprême créé en 2020 et composé de 20 journalistes, universitaires et hommes politiques, a annoncé mardi qu’il ouvrait une procédure pour examiner si les directives du géant des médias sociaux sur les vidéos et images modifiées pouvaient « Résister aux défis actuels et futurs ».

L’enquête, la première du genre sur la politique de « manipulation des médias » de Meta, a été déclenchée par une version modifiée d’une vidéo lors des élections de mi-mandat de 2022 aux États-Unis. Dans le clip original, Biden place un autocollant « J’ai voté » sur la poitrine de sa petite-fille adulte et l’embrasse sur la joue.

Dans une publication sur Facebook de mai de cette année, une version modifiée de sept secondes du clip boucle la séquence afin de répéter le moment où la main de Biden entre en contact avec sa poitrine. La légende qui l’accompagne qualifie Biden de « pédophile malade » et ceux qui ont voté pour lui de « malade mental ». Le clip est toujours sur le site Facebook.

Bien que la vidéo de Biden ait été montée sans recours à l’intelligence artificielle, le conseil affirme que son examen et ses décisions créeront également un précédent pour le contenu généré par l’IA et édité par l’homme.

« Cela touche à la question beaucoup plus large de la manière dont les médias manipulés pourraient avoir un impact sur les élections aux quatre coins du monde », a déclaré Thomas Hughes, directeur de l’administration du Conseil de surveillance.

« La liberté d’expression est d’une importance vitale, c’est la pierre angulaire de la gouvernance démocratique », a déclaré Hughes. « Mais des questions complexes se posent quant aux responsabilités de Meta en matière de droits de l’homme concernant le contenu vidéo qui a été modifié pour créer une impression trompeuse d’une personnalité publique. »

Il a ajouté : « Il est important que nous examinions les défis et les meilleures pratiques que Meta devrait adopter lorsqu’il s’agit d’authentifier le contenu vidéo à grande échelle. »

L’enquête du comité intervient alors que les contenus modifiés par l’IA, souvent décrits comme des deepfakes, deviennent de plus en plus sophistiqués et largement utilisés. Certains craignent que le contenu faux mais réaliste des hommes politiques, en particulier, puisse influencer le vote lors des prochaines élections. Les États-Unis se rendront aux urnes dans un peu plus d’un an.

L’affaire Biden a fait surface lorsqu’un utilisateur a signalé la vidéo à Meta, qui n’a pas supprimé la publication et a confirmé sa décision de la laisser en ligne à la suite d’une procédure d’appel sur Facebook. Début septembre, la vidéo avait été vue moins de 30 fois et n’avait pas été partagée.

L’utilisateur non identifié a ensuite fait appel de la décision auprès du conseil de surveillance. Meta a confirmé que sa décision de laisser le contenu sur la plateforme était correcte.

L’affaire Biden s’ajoute au nombre croissant d’enquêtes du conseil sur la modération du contenu lors des élections et d’autres événements civiques.

Cette année, le conseil d’administration a annulé la décision de Meta de laisser apparaître une vidéo sur Facebook mettant en vedette un général brésilien, que le conseil n’a pas été nommé, à la suite d’élections susceptibles d’inciter à la violence de rue. Les évaluations précédentes se sont concentrées sur la décision de bloquer l’accès de l’ancien président américain Donald Trump à Facebook, ainsi que sur une vidéo dans laquelle le Premier ministre cambodgien Hun Sen menace ses opposants politiques de violence.

Une fois que le conseil d’administration a terminé son examen, il peut émettre des recommandations politiques non contraignantes à Meta, qui doit répondre dans un délai de deux mois. Le conseil a invité le public à soumettre des propositions, qui peuvent être fournies de manière anonyme.

Dans un article publié mardi, Meta a réitéré que la vidéo avait été « simplement modifiée pour supprimer certaines parties » et qu’il ne s’agissait donc pas d’un deepfake capturé par ses politiques médiatiques manipulées.

« Nous mettrons en œuvre la décision du conseil d’administration une fois qu’il aura fini de délibérer et mettrons à jour ce message en conséquence », a-t-il déclaré, ajoutant que la vidéo ne violait pas non plus ses politiques en matière de discours de haine ou d’intimidation.

Reportage supplémentaire de Hannah Murphy à San Francisco



ttn-fr-56