Les grandes entreprises technologiques ont mis en place un partenariat pour empêcher les abus de l’intelligence artificielle lors des élections. OpenAI, Meta, Microsoft, Google, Amazon et X, entre autres, y participent.
Cette coopération a été annoncée vendredi lors d’une grande conférence sur la sécurité à Munich, qui a réuni de nombreux dirigeants mondiaux. Les entreprises technologiques partageront, entre autres, des informations sur de fausses images ou de faux enregistrements sonores réalisés par l’intelligence artificielle (IA).
Les entreprises n’ont pas conclu d’accords contraignants pour supprimer les fausses images des plateformes. Cependant, ils ont conclu des accords sur la reconnaissance des fausses images d’IA et leur étiquetage.
Les entreprises technologiques souhaitent travailler ensemble pour développer une technologie capable de détecter les tromperies de l’IA. Les entreprises souhaitent également utiliser des campagnes pour sensibiliser le public aux dangers des fausses nouvelles grâce à l’IA.
Les gouvernements veulent que les entreprises technologiques fassent davantage contre les fausses images
La plupart des entreprises ont déjà pris leurs propres mesures contre les fausses images. Mais divers gouvernements, comme les États-Unis et l’Union européenne, demandent aux entreprises technologiques d’en faire davantage dans ce domaine.
Il y a de nombreuses élections cette année, notamment les élections présidentielles aux États-Unis. « L’IA n’a pas créé la tromperie électorale, mais nous devons l’empêcher de permettre à la tromperie de se développer », a déclaré le président de Microsoft, Brad Smith.
Le mois dernier, il y a eu une agitation aux États-Unis à propos d’un enregistrement audio réalisé par AI. Une voix similaire à celle du président américain Joe Biden a pu être entendue, appelant les électeurs démocrates à ne pas voter lors des primaires dans l’État du New Hampshire.