Les « photos nues » de Taylor Swift ont boosté l’élan du géant des réseaux sociaux

Le service de messagerie X a pris de nouvelles mesures pour freiner la propagation des fausses photos de la mégastar du monde de la musique. Le phénomène touche également de plus en plus les gens ordinaires.

Les contenus pornographiques créés avec l’intelligence artificielle obligent les géants des réseaux sociaux à réagir et à développer des méthodes d’action pour éradiquer les contenus non consensuels de leurs plateformes. Le danger réside dans la propagation de contrefaçons qui semblent crédibles, potentiellement sous les yeux de centaines de millions de personnes.

Celui d’Elon Musk le service de messagerie appartenant à X a dû limiter la mégastar ce week-end Taylor Swift recherche par nom au sein du service.

La raison en est les images pornographiques générées artificiellement de l’artiste, qui ont déjà collecté des dizaines de millions de vues sur la plateforme. Jeudi dernier, il a été rapporté que X avait tenté de supprimer les images et de fermer les comptes qui les diffusaient.

Le contenu ne peut pas être recherché par le nom de Swift

Les mesures prises n’ont visiblement pas suffi à freiner la diffusion des images.

Si vous essayez maintenant de rechercher du contenu dans X en utilisant le nom de Swift, l’outil de recherche vous affichera un message indiquant que les publications ne peuvent pas être téléchargées pour le moment. L’utilisateur est invité à réessayer ultérieurement.

Selon CNN, qui rend compte du sujet, aucune restriction similaire n’a été observée jusqu’à présent, par exemple sur Instagram et Reddit. CNN affirme que les images ont été distribuées principalement sous X.

Comme d’autres grandes plateformes de médias sociaux, les conditions d’utilisation de X interdisent également le partage de contenus manipulés et hors contexte, s’ils peuvent induire les gens en erreur ou causer des dommages.

– Il s’agit d’une mesure temporaire, a déclaré ce week-end à CNN le représentant de X concernant la restriction de la fonction de recherche.

Également Tavist comme destinations

Les contrefaçons de photos pornographiques de célébrités créées avec des programmes de traitement d’images ne sont pas un phénomène nouveau, mais grâce aux applications avancées d’intelligence artificielle, pratiquement tout le monde peut créer de nouveaux contenus sans grande compétence.

De plus, l’intelligence artificielle permet de rendre les contrefaçons plus convaincantes et plus difficiles à détecter qu’auparavant.

En décembre, nous avons signalé comment les applications et les sites Web utilisés pour créer du porno IA sont devenus plus populaires qu’auparavant. Vous pouvez y télécharger des images, que l’intelligence artificielle « déshabille » en quelques secondes.

L’intelligence artificielle ne peut pas vraiment voir sous les vêtements de qui que ce soit, elle ne fait que remplacer un corps nu dans l’image. Selon Bloomberg, bon nombre de ces applications ne fonctionnent que sur le corps féminin.

Selon un récent rapport, ces services comptaient près de 25 millions d’utilisateurs dans le monde en septembre dernier.

– Nous avons remarqué que cela est de plus en plus le fait de personnes très ordinaires avec des photos de personnes très ordinaires, a déclaré Eva Galperin, directrice de la sécurité de l’information à l’Electronic Frontier Foundation, à Bloomberg en décembre.

Bloomberg affirme que les applications et les sites sont annoncés sur Reddit, X et YouTube, entre autres.

Tiktok et Meta ont déclaré à Bloomberg qu’ils avaient bloqué certains mots généralement utilisés dans le marketing de ces applications pour empêcher la promotion de services douteux sur leurs plateformes.

Sources: CNN, Bloomberg



ttn-fr-54