Google exigera que les publicités électorales « divulguent de manière visible » le contenu de l’IA


Recevez des mises à jour gratuites sur l’intelligence artificielle

Google exigera des annonceurs vérifiés qu’ils « divulguent clairement » lorsqu’une publicité de campagne « représente de manière inauthentique » des personnes ou des événements, dans le but de lutter contre la diffusion d’images manipulées numériquement à des fins politiques, a annoncé la société mercredi.

Google répertorié des exemples de publicités qui nécessiteraient la divulgation, y compris celles qui donnent « l’impression qu’une personne dit ou fait quelque chose qu’elle n’a pas dit ou fait » et celles qui modifient les images pour « représenter des scènes qui n’ont pas réellement eu lieu ».

L’entreprise technologique a déclaré que cette politique entrerait en vigueur à la mi-novembre, un an avant les élections présidentielles et parlementaires américaines.

L’annonce intervient juste une semaine avant que de hauts dirigeants du secteur technologique, dont le directeur général de Google, Sundar Pichai, le patron de Microsoft, Satya Nadella, et l’ancien chef de Microsoft, Bill Gates, participent à un forum sur l’intelligence artificielle organisé par le chef de la majorité au Sénat, Chuck Schumer, à Washington, qui est susceptible de devenir le fondement de la législation sur l’IA. Parmi les autres participants au forum à huis clos AI Insight figurent Elon Musk et Mark Zuckerberg.

L’essor de l’IA a accru les craintes de contenu modifié trompant les électeurs lors des élections américaines de 2024. En juillet, un annonce de Never Back Down, un groupe de collecte de fonds soutenant le gouverneur de Floride Ron DeSantis, a semblé utiliser l’IA pour recréer la voix de l’ancien président Donald Trump lisant un message qu’il a publié sur les réseaux sociaux.

Un récent boom des modèles d’IA générative, tels que ChatGPT et Midjourney, signifie que les utilisateurs peuvent facilement créer de fausses vidéos et images convaincantes.

Mandiant, une société de cybersécurité appartenant à Google, a déclaré le mois dernier avoir constaté une augmentation de l’utilisation de l’IA pour mener des campagnes d’information manipulatrices en ligne, mais a ajouté que l’impact avait jusqu’à présent été limité. Son rapport indique avoir suivi les campagnes menées par des groupes liés aux gouvernements de la Russie, de la Chine et d’autres pays.

Google subit depuis des années des pressions pour restreindre la désinformation sur son moteur de recherche – l’une des sources d’informations les plus utilisées – et sur d’autres plateformes, telles que YouTube. En 2017, elle a annoncé sa première tentative pour stopper la circulation des « fausses nouvelles » sur son moteur de recherche avec des outils permettant aux utilisateurs de signaler des contenus trompeurs.

En juin, l’UE a ordonné aux plateformes telles que Google et Meta d’intensifier leurs efforts pour lutter contre les fausses informations, notamment en ajoutant des étiquettes aux contenus générés par l’IA.

Facebook, qui est l’une des plus grandes plateformes de publicité politique, a mis à jour sa politique relative aux vidéos publiées sur ses plateformes en 2020, qui interdit les « médias manipulateurs trompeurs » qui avaient été « synthétisés », y compris les « deepfakes », dans lesquels une personne aurait été modifié numériquement pour apparaître comme quelqu’un d’autre. Il n’a pas de politique spécifique pour les publicités politiques générées par l’IA.

X, anciennement Twitter, a annulé le mois dernier une politique qui interdisait toutes les publicités politiques dans le monde depuis 2019, soulevant des inquiétudes concernant la désinformation avant les élections de 2024.

La Commission électorale fédérale a refusé de commenter la nouvelle politique de Google.



ttn-fr-56