Les Deepfakes ont induit les électeurs en erreur lors des élections au Bangladesh


Les décideurs politiques du monde entier s’inquiètent de la manière dont la désinformation générée par l’IA peut être exploitée pour tenter d’induire les électeurs en erreur et attiser les divisions à l’approche de plusieurs grandes élections l’année prochaine.

Cela se produit déjà dans un pays : le Bangladesh.

La nation sud-asiatique de 170 millions d’habitants se rendra aux urnes début janvier, un scrutin marqué par une lutte de pouvoir acharnée et polarisante entre la Première ministre sortante Sheikh Hasina et ses rivaux, le parti nationaliste d’opposition du Bangladesh.

Au Bangladesh, les médias et influenceurs pro-gouvernementaux ont promu ces derniers mois la désinformation générée par l’IA, créée avec des outils bon marché proposés par des start-ups d’intelligence artificielle.

Dans un prétendu clip d’information, un présentateur généré par l’IA fustige les États-Unis, un pays que le gouvernement de Sheikh Hasina a critiqué avant les élections. Une autre vidéo deepfake, qui a depuis été supprimée, montrait un chef de l’opposition hésitant sur son soutien aux Gazaouis, une position potentiellement ruineuse dans ce pays à majorité musulmane qui jouit d’une forte sympathie du public pour les Palestiniens.

La pression publique s’accentue sur les plateformes technologiques pour qu’elles répriment les contenus trompeurs sur l’IA à l’approche de plusieurs grandes élections attendues en 2024, notamment aux États-Unis, au Royaume-Uni, en Inde et en Indonésie. En réponse, Google et Meta ont récemment annoncé des politiques exigeant que les campagnes divulguent si les publicités politiques ont été modifiées numériquement.

Mais les exemples du Bangladesh montrent non seulement comment ces outils d’IA peuvent être exploités lors des élections, mais aussi la difficulté de contrôler leur utilisation sur des marchés plus petits qui risquent d’être négligés par les entreprises technologiques américaines.

Miraj Ahmed Chowdhury, directeur général de la société de recherche sur les médias basée au Bangladesh, Digitally Right, a déclaré que même si la désinformation générée par l’IA était « encore à un niveau expérimental » – la plupart étant créée à l’aide de plateformes conventionnelles de montage photo ou vidéo – elle montrait à quel point cela pouvait prendre désactivé.

« Lorsqu’ils disposent de technologies et d’outils comme l’IA, qui leur permettent de produire de la désinformation à grande échelle, alors vous pouvez imaginer l’ampleur de cette menace », a-t-il déclaré, ajoutant que « l’attention qu’une plateforme porte à une certaine juridiction dépend de la manière dont elle s’y prend ». c’est important en tant que marché ».

L’attention mondiale portée à la possibilité d’utiliser l’IA pour créer du contenu politique trompeur ou faux s’est accrue au cours de l’année écoulée avec la prolifération d’outils puissants tels que ChatGPT d’OpenAI et les générateurs de vidéos IA.

Plus tôt cette année, le Comité national républicain américain a publié une publicité d’attaque utilisant des images générées par l’IA pour décrire un avenir dystopique sous la présidence de Joe Biden. Et YouTube a suspendu plusieurs comptes au Venezuela utilisant des présentateurs d’actualités générés par l’IA pour promouvoir la désinformation favorable au régime du président Nicolas Maduro.

Au Bangladesh, la désinformation alimente un climat politique tendu à l’approche des élections de début janvier. Cheikh Hasina a réprimé l’opposition. Des milliers de dirigeants et de militants ont été arrêtés dans ce que les critiques qualifient de tentative de truquer les sondages en sa faveur, incitant les États-Unis à faire publiquement pression sur son gouvernement pour qu’il garantisse des élections libres et équitables.

Dans une vidéo publiée sur X en septembre par BD Politico, un média en ligne, un présentateur de l’émission « World News » a présenté un segment en studio – entrecoupé d’images d’émeutes – dans lequel il accusait les diplomates américains d’interférer dans les élections au Bangladesh et les blâmait. pour violences politiques.

La vidéo a été réalisée à l’aide de HeyGen, un générateur vidéo IA basé à Los Angeles qui permet aux clients de créer des clips présentés par des avatars IA pour aussi peu que 24 $ par mois. Le même présentateur, nommé « Edward », peut être vu dans le contenu promotionnel de HeyGen comme l’un des nombreux avatars – eux-mêmes générés à partir d’acteurs réels – disponibles pour les utilisateurs de la plateforme. X, BD Politico et HeyGen n’ont pas répondu aux demandes de commentaires.

Capture d'écran d'une vidéo de désinformation anti-opposition publiée sur Facebook présentant un deepfake du leader en exil du BNP, Tarique Rahman
Capture d’écran d’une vidéo de désinformation anti-opposition publiée sur Facebook présentant un deepfake du leader en exil du BNP, Tarique Rahman

D’autres exemples incluent de fausses vidéos anti-opposition publiées sur le Facebook de Meta, dont une qui prétend faussement être celle du leader en exil du BNP, Tarique Rahman, suggérant au parti de « se taire » à propos de Gaza pour ne pas déplaire aux États-Unis. Le Tech Global Institute, un groupe de réflexion, et l’association médiatique à but non lucratif Witness ont tous deux conclu que la fausse vidéo était probablement générée par l’IA.

AKM Wahiduzzaman, un responsable du BNP, a déclaré que son parti avait demandé à Meta de supprimer ce type de contenu, mais que « la plupart du temps, ils ne prennent pas la peine de répondre ». Meta a supprimé la vidéo après avoir été contactée par le Financial Times pour commentaires.

Dans une autre vidéo deepfake, créée en utilisant la plateforme vidéo d’IA D-ID basée à Tel Aviv, le leader de la jeunesse du BNP, Rashed Iqbal Khan, est montré en train de mentir sur son âge dans ce que le Tech Global Institute a qualifié de tentative de le discréditer. D-ID n’a pas répondu à une demande de commentaire.

L’un des principaux défis dans l’identification d’une telle désinformation était le manque d’outils de détection d’IA fiables, a déclaré Sabhanaz Rashid Diya, fondateur du Tech Global Institute et ancien cadre de Meta, les produits disponibles dans le commerce étant particulièrement inefficaces pour identifier les contenus en langue autre que l’anglais.

Elle a ajouté que les solutions proposées par les grandes plateformes technologiques, qui se sont concentrées sur la réglementation de l’IA dans les publicités politiques, auront un effet limité dans des pays comme le Bangladesh, où les publicités représentent une part moindre de la communication politique.

« Les solutions qui émergent pour faire face à cette vague de désinformation sur l’IA sont très occidentales. » Les plateformes technologiques « ne prennent pas cela aussi au sérieux dans d’autres parties du monde ».

Le problème est exacerbé par l’absence de réglementation ou par son application sélective par les autorités. La loi sur la cybersécurité du Bangladesh, par exemple, a été critiquée pour avoir donné au gouvernement des pouvoirs draconiens pour réprimer la dissidence en ligne.

Le régulateur d’Internet du Bangladesh n’a pas répondu à une demande de commentaires sur ce qu’il fait pour contrôler la désinformation en ligne.

Selon Diya, une menace plus grande que le contenu généré par l’IA lui-même était la possibilité que des politiciens et d’autres puissent utiliser la simple possibilité de deepfakes pour discréditer des informations inconfortables.

En Inde voisine, par exemple, un homme politique a répondu à une fuite audio dans laquelle il aurait évoqué la corruption au sein de son parti en prétendant que c’était faux – une affirmation ultérieurement rejeté par les vérificateurs des faits.

« Il est facile pour un homme politique de dire : « Ceci est un deepfake » ou « Ceci est généré par l’IA » et de semer un sentiment de confusion », a-t-elle déclaré. « Le défi pour le Sud global. . . C’est la manière dont l’idée du contenu généré par l’IA sera utilisée pour éroder ce que les gens croient être vrai et faux.

Reportage supplémentaire de Jyotsna Singh à New Delhi



ttn-fr-56