Les principaux fournisseurs de technologies veulent empêcher le contenu généré par l’intelligence artificielle (IA) d’affecter les élections politiques dans le monde entier.
Vendredi, lors de la conférence sur la sécurité de Munich, des représentants de 20 entreprises – dont Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok et X (Twitter) – se sont engagés à travailler ensemble pour mieux détecter et combattre les contenus malveillants d’IA.
Les fournisseurs de technologies ciblent principalement les fichiers audio, vidéo et image générés par l’IA qui imitent ou modifient de manière trompeuse l’apparence ou la voix des candidats politiques, des travailleurs électoraux et d’autres acteurs clés d’une élection démocratique. L’initiative cible également les contenus numériques qui fournissent aux électeurs de fausses informations sur le moment, le lieu et la manière dont les élections auront lieu.
Aux États-Unis en particulier, où l’élection présidentielle aura lieu le 5 novembre, la campagne électorale actuelle a déjà fait l’objet de nombreuses expériences en matière de contenu manipulateur d’IA. Là-bas, un robot téléphonique a récemment demandé aux personnes ayant la voix du président Joe Biden de ne pas voter lors des élections primaires dans le New Hampshire. La voix générée par une IA se distingue difficilement de la voix réelle du président américain.
Le président de la Conférence de Munich sur la sécurité, Christoph Heusgen, a déclaré que les élections sont le cœur battant des démocraties. Cet accord constitue une étape cruciale pour promouvoir l’intégrité des élections, accroître la résilience sociétale et créer des pratiques technologiques dignes de confiance.
Kent Walker, président des affaires mondiales chez Google, a déclaré : « Nous ne pouvons pas permettre que l’utilisation abusive du numérique menace la capacité de l’intelligence artificielle à améliorer nos économies, à créer de nouveaux emplois et à faire progresser la santé et la science. » Le président de Microsoft, Brad Smith, a déclaré qu’à mesure que la société profite des bénéfices de l’IA, les signataires de l’accord ont la responsabilité de garantir que ces outils ne deviennent pas des armes lors des élections.
Dans le cadre de l’accord, les entreprises concernées souhaitent, entre autres, réévaluer leurs modèles d’IA pour comprendre les risques qu’ils pourraient présenter en lien avec des contenus électoraux frauduleux. Dans le même temps, les entreprises souhaitent soutenir les efforts visant à sensibiliser le public à ce défi. Les signataires souhaitent également promouvoir l’éducation aux médias et la résilience de la société dans son ensemble.
/chd/DP/nas
MUNICH (dpa-AFX)
Produits à effet de levier sélectionnés sur Adobe
Avec les knock-outs, les investisseurs spéculatifs peuvent participer de manière disproportionnée aux mouvements de prix. Sélectionnez simplement le levier souhaité et nous vous montrerons les produits ouverts adaptés sur Adobe.
L’effet de levier doit être compris entre 2 et 20
Publicité