Les plus grandes entreprises technologiques du monde s’engagent à lutter contre les « deepfakes » électoraux créés par l’IA


Restez informé avec des mises à jour gratuites

Les plus grandes entreprises technologiques du monde se sont engagées à empêcher les contenus « trompeurs » générés par l’intelligence artificielle d’interférer avec les élections mondiales cette année, alors que les craintes grandissent quant à l’impact de la désinformation sur la démocratie.

Amazon, Google, Meta, Microsoft, TikTok et OpenAI faisaient partie des 20 entreprises technologiques qui ont déclaré vendredi, lors de la conférence sur la sécurité de Munich, qu’elles travailleraient ensemble pour lutter contre la création et la diffusion de contenus destinés à induire les électeurs en erreur, tels que des images et des vidéos « deepfakes ». et audio.

Selon l’accord volontaire signé par les entreprises, le développement rapide de l’IA « créait de nouvelles opportunités ainsi que des défis pour le processus démocratique », et la diffusion de contenus trompeurs pourrait « mettre en péril l’intégrité des processus électoraux ».

« Avec autant d’élections majeures qui ont lieu cette année, il est essentiel que nous fassions tout notre possible pour empêcher les gens d’être trompés par le contenu généré par l’IA », a déclaré Nick Clegg, président des affaires mondiales chez Meta. « Ce travail dépasse la portée de n’importe quelle entreprise et nécessitera un effort considérable de la part de l’industrie, du gouvernement et de la société civile. »

Brad Smith, vice-président et président de Microsoft, a ajouté que les entreprises ont « la responsabilité de veiller à ce que ces outils ne deviennent pas des armes lors des élections ».

L’accord intervient dans un contexte d’inquiétudes croissantes parmi les législateurs et les experts quant au potentiel de l’IA générative de mettre en péril des élections très médiatisées qui doivent avoir lieu cette année, notamment aux États-Unis, au Royaume-Uni et en Inde.

Les entreprises technologiques qui exploitent d’importantes plateformes de médias sociaux telles que Facebook, X et TikTok sont soumises à un examen minutieux depuis des années quant à l’existence de contenus préjudiciables sur leurs sites et à la manière dont elles y font face.

Mais l’explosion de l’intérêt et la disponibilité des outils d’IA générative ont alimenté les inquiétudes quant à la manière dont la technologie pourrait nuire aux élections en particulier.

En janvier, un appel automatisé a été envoyé aux électeurs américains du New Hampshire, prétendant provenir du président Joe Biden, les appelant à ne pas voter aux élections primaires. L’année dernière, de faux clips de politiciens prétendument créés à l’aide de l’IA puis diffusés en ligne ont été découverts au Royaume-Uni, en Inde, au Nigéria, au Soudan, en Éthiopie et en Slovaquie.

Les 20 entreprises technologiques qui ont signé l’accord de vendredi ont déclaré qu’elles travailleraient « en collaboration » sur des outils pour empêcher la propagation de contenus d’IA préjudiciables liés aux élections sur leurs plateformes, et qu’elles prendraient des mesures « rapides et proportionnées ».

Les efforts pourraient inclure l’ajout de filigranes aux images indiquant clairement leur provenance et si elles ont été modifiées, par exemple.

Les entreprises se sont également engagées à faire preuve de transparence sur la manière dont elles s’attaquent à ces contenus trompeurs et ont déclaré qu’elles évalueraient leurs modèles d’IA générative – tels que ceux derrière le chatbot ChatGPT d’OpenAI – pour mieux comprendre les risques liés aux élections qu’ils pourraient poser.

Cet accord est le dernier d’une série d’engagements volontaires autour de l’IA que les grandes entreprises technologiques ont pris ces derniers mois. L’année dernière, des groupes tels qu’OpenAI, Google DeepMind et Meta ont convenu d’ouvrir leurs modèles d’IA générative à l’examen de l’AI Safety Institute britannique.

Ce mois-ci, dans le cadre de sa participation à l’initiative industrielle Coalition for Content Provenance and Authenticity, Google a déclaré qu’il « étudiait activement » la possibilité de déployer des outils de filigrane montrant comment une image avait été créée.

Meta a également déclaré en février qu’elle commencerait à étiqueter les images générées par l’IA que les utilisateurs publient sur Facebook, Instagram et Threads « dans les mois à venir ».



ttn-fr-56