10 octobre 2023L’actualité des hackersCybersécurité / Sécurité en ligne

Certains risques en ligne pour les enfants sont en augmentation, selon un récent rapport de Épine, une organisation technologique à but non lucratif dont la mission est de développer une technologie pour défendre les enfants contre les abus sexuels. Recherche partagée dans le Tendances émergentes en ligne en matière d’abus sexuels sur enfants, rapport 2023, indique que les mineurs prennent et partagent de plus en plus d’images sexuelles d’eux-mêmes. Cette activité peut se produire de manière consensuelle ou coercitive, car les jeunes signalent également une augmentation des interactions à risque en ligne avec des adultes.

« Dans notre monde connecté numériquement, le matériel d’abus sexuels sur des enfants est facilement et de plus en plus partagé sur les plateformes que nous utilisons dans notre vie quotidienne », a déclaré John Starr, vice-président de l’impact stratégique chez Thorn. « Les interactions néfastes entre jeunes et adultes ne sont pas confinées aux recoins sombres du Web. À mesure que la communauté numérique crée des plateformes innovantes, les prédateurs cooptent ces espaces pour exploiter les enfants et partager ce contenu flagrant. »

Ces tendances et d’autres partagées dans le rapport Emerging Online Trends correspondent à ce que rapportent d’autres organisations de sécurité des enfants. Le CyberTipline du Centre national pour les enfants disparus et exploités (NCMEC) a constaté une augmentation de 329 % des fichiers de matériel pédopornographique (CSAM) signalés au cours des cinq dernières années. Rien qu’en 2022, le NCMEC a reçu plus de 88,3 millions de fichiers CSAM.

Plusieurs facteurs peuvent contribuer à l’augmentation des signalements :

  1. De plus en plus de plates-formes déploient des outils, tels que le produit Safer de Thorn, pour détecter les CSAM connus à l’aide du hachage et de la correspondance.
  2. Les prédateurs en ligne sont plus effrontés et déploient de nouvelles technologies, telles que les chatbots, pour accroître leur attrait. De 2021 à 2022, le NCMEC a constaté une augmentation de 82 % des rapports faisant état d’incitations en ligne d’enfants à des actes sexuels.
  3. Le CSAM autogénéré (SG-CSAM) est en hausse. Rien qu’entre 2021 et 2022, l’Internet Watch Foundation a noté une augmentation de 9 % du SG-CSAM.

Ce contenu constitue un risque potentiel pour chaque plate-forme qui héberge du contenu généré par les utilisateurs, qu’il s’agisse d’une photo de profil ou d’un vaste espace de stockage cloud.

Seule la technologie peut résoudre l’ampleur de ce problème

Hachage et correspondance est l’un des éléments technologiques les plus importants que les entreprises technologiques peuvent utiliser pour aider protéger les utilisateurs et les plateformes des risques liés à l’hébergement de ce contenu tout en contribuant également à perturber la propagation virale du CSAM et les cycles de revictimisation.

Des millions de fichiers CSAM sont partagés en ligne chaque année. Une grande partie de ces fichiers sont de CSAM précédemment signalé et vérifié. Étant donné que le contenu est connu et a été préalablement ajouté à une liste de hachage d’une ONG, il peut être détecté à l’aide de hachage et correspondance.

Qu’est-ce que le hachage et la correspondance ?

En termes simples, le hachage et la correspondance sont un moyen programmatique de détecter les CSAM et de perturber leur propagation en ligne. Deux types de hachage sont couramment utilisés : le hachage perceptuel et cryptographique. Les deux technologies convertissent un fichier en une chaîne unique de nombres appelée valeur de hachage. C’est comme un empreinte digitale pour chaque élément de contenu.

Détection CSAM

Pour détecter le CSAM, le contenu est haché et les valeurs de hachage résultantes sont comparées aux listes de hachage de CSAM connu. Cette méthodologie permet aux entreprises technologiques d’identifier, de bloquer ou de supprimer ce contenu illicite de leurs plateformes.

Élargir le corpus de CSAM connus

Le hachage et la correspondance constituent le fondement de la détection CSAM. Parce qu’il repose sur une comparaison avec des listes de hachage de contenus précédemment signalés et vérifiés, le nombre de valeurs de hachage CSAM connues dans la base de données avec lesquelles une entreprise compare est essentiel.

Détection CSAM

Safer, un outil de détection proactive CSAM construit par Thorn, offre un accès à une vaste base de données regroupant plus de 29 millions de valeurs de hachage CSAM connues. Safer permet également aux entreprises technologiques de partager des listes de hachage entre elles (nommées ou anonymes), élargissant ainsi le corpus de CSAM connu, ce qui contribue à perturber sa propagation virale.

Éliminer le CSAM sur Internet

Pour éliminer le CSAM d’Internet, les entreprises technologiques et les ONG ont chacune un rôle à jouer. « Les plateformes d’hébergement de contenu sont des partenaires clés, et Thorn s’engage à doter l’industrie technologique d’outils et de ressources pour lutter à grande échelle contre les abus sexuels sur enfants », a ajouté Starr. « Il s’agit de protéger nos enfants. Il s’agit également d’aider les plateformes technologiques à protéger leurs utilisateurs et eux-mêmes contre les risques liés à l’hébergement de ce contenu. Avec les bons outils, Internet peut être plus sûr. »

Détection CSAM

En 2022, Safer a haché plus de 42,1 milliards d’images et de vidéos pour ses clients. Cela a abouti à la découverte de 520 000 fichiers CSAM connus sur leurs plateformes. À ce jour, Safer a aidé ses clients à identifier plus de deux millions d’éléments CSAM sur leurs plateformes.

Plus il y aura de plateformes utilisant des outils de détection CSAM, plus il y aura de chances d’inverser l’augmentation alarmante du matériel pédopornographique en ligne.


Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57