À l’intérieur d’un monde souterrain terrifiant de pédophiles utilisant l’IA pour créer et vendre des images viles d’abus sexuels sur des enfants


Les pédophiles utilisent l’IA pour créer et vendre des images viles d’abus sexuels sur des enfants, a-t-on révélé.

Les logiciels destinés à aider les artistes et les graphistes sont utilisés à mauvais escient par les abuseurs pour générer le contenu malade.

3

Des pédophiles utilisent l’IA pour générer des images photoréalistes d’abus sexuels sur des enfants, selon une enquête
Le logiciel a été conçu à l'origine pour les artistes et les graphistes

3

Le logiciel a été conçu à l’origine pour les artistes et les graphistesCrédit : Getty

UN Enquête de la BBC a également constaté que les images dégoûtantes sont hébergées sur des sites de partage de contenu grand public, y compris Patreon.

Ceux qui créent le matériel utiliseraient un programme d’IA appelé Stable Diffusion.

Il fonctionne en saisissant par les utilisateurs un bloc de texte décrivant l’image qu’ils souhaitent, que le programme génère ensuite.

Dans le cas du matériel d’exploitation sexuelle d’enfants (CSAM), il est utilisé pour créer des « pseudo-images » réalistes d’agressions sexuelles et de viols d’enfants, y compris des bébés et des tout-petits.

L'ex-chef du chien de garde de la police devant le tribunal accusé de viol répété d'une fille de 14 ans
Notre plage a été gâchée par le décor hollywoodien qui la ruine pour les touristes

Ceux-ci sont ensuite mis en ligne, avec de nombreuses images de dessins animés apparaissant sur Pixiv, un réseaux sociaux plate-forme basée à Japon où les dessins sexualisés d’enfants ne sont pas illégaux.

D’autres apparaissent sur Patreon, où les utilisateurs proposent des images « non censurées » pour aussi peu que 6,50 £.

Patreon a déclaré avoir une politique de « tolérance zéro » sur le CSAM, tandis que Pixiv a déclaré avoir interdit toutes les images photoréalistes de cette nature.

Octavia Sheepshanks, qui a mené l’enquête, a déclaré: « Depuis que les images générées par l’IA sont devenues possibles, il y a eu cette énorme inondation… ce ne sont pas seulement de très jeunes filles, elles sont [paedophiles] parler des tout-petits.

« Le volume est juste énorme, donc les gens [creators] dira « nous visons à faire au moins 1 000 images par mois ».

Pendant ce temps, la police souligne le fait que, même si aucun enfant réel n’est maltraité pour créer le contenu, ces pseudo-images sont toujours illégales à posséder, publier ou transférer au Royaume-Uni.

Un porte-parole de Patreon a déclaré: « Nous interdisons déjà le matériel synthétique d’exploitation des enfants généré par l’IA.

« Les créateurs ne peuvent pas financer de contenus dédiés à des thèmes sexuels impliquant des mineurs. »

Ils ont ajouté qu’ils étaient « très proactifs » dans leurs efforts pour garder ce type de contenu hors de la plateforme.

Anna Edmundson, responsable de la politique et des affaires publiques au NSPCC, a déclaré : « La vitesse à laquelle ces technologies émergentes ont été cooptées par les abuseurs est à couper le souffle mais pas surprenante, car les entreprises qui ont été averties des dangers se sont assises sur leurs mains tout en prononçant des platitudes creuses sur la sécurité.

« Les entreprises technologiques savent désormais comment leurs produits sont utilisés pour faciliter les abus sexuels sur les enfants et il n’y a plus d’excuses pour l’inaction. »

Un porte-parole de Stability AI, qui a développé le programme Diffusion, a déclaré : « Nous soutenons fermement les efforts des forces de l’ordre contre ceux qui utilisent nos produits à des fins illégales ou néfastes. »

Ils ont également expliqué que leurs politiques interdisaient l’utilisation de Diffusion pour créer du CSAM.

Stacey Solomon se déshabille pour une vidéo en bikini quatre mois après avoir accouché
Le parc à thème britannique populaire propose sept jours pour le prix d'un

Le gouvernement a déclaré que le projet de loi sur la sécurité en ligne, qui progresse au Parlement, obligera les entreprises à travailler de manière proactive pour empêcher toutes les formes de CSAM d’apparaître sur leurs plateformes.

Cela comprend « le toilettage, la diffusion en direct, le matériel d’abus sexuel d’enfants et les images interdites d’enfants », ont-ils ajouté.

Cependant, les esprits malades l'utilisent à mauvais escient pour décrire la maltraitance des enfants, certains aussi jeunes que des bébés et des tout-petits.

3

Cependant, les esprits malades l’utilisent à mauvais escient pour décrire la maltraitance des enfants, certains aussi jeunes que des bébés et des tout-petits.Crédit : Getty



ttn-fr-58