Nuevo informe: El contenido de abuso sexual infantil y los riesgos en línea para los niños van en aumento


10 de octubre de 2023Las noticias de los piratas informáticosCiberseguridad / Seguridad en línea

Ciertos riesgos en línea para los niños están aumentando, según un informe reciente de Espina, una organización tecnológica sin fines de lucro cuya misión es desarrollar tecnología para defender a los niños del abuso sexual. Investigación compartida en el Informe sobre tendencias emergentes en línea en el abuso sexual infantil 2023, indica que los menores toman y comparten cada vez más imágenes sexuales de sí mismos. Esta actividad puede ocurrir de forma consensuada o coercitiva, ya que los jóvenes también informan de un aumento en las interacciones riesgosas en línea con adultos.

«En nuestro mundo conectado digitalmente, el material de abuso sexual infantil se comparte fácil y cada vez más en las plataformas que utilizamos en nuestra vida diaria», afirmó John Starr, vicepresidente de Impacto Estratégico de Thorn. «Las interacciones dañinas entre jóvenes y adultos no están aisladas de los rincones oscuros de la web. A medida que la comunidad digital construye plataformas innovadoras, los depredadores están cooptando estos espacios para explotar a los niños y compartir este contenido atroz».

Estas tendencias y otras compartidas en el informe Tendencias emergentes en línea se alinean con lo que informan otras organizaciones de seguridad infantil. CyberTipline del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) ha visto un aumento del 329% en archivos de material de abuso sexual infantil (CSAM) reportados en los últimos cinco años. Solo en 2022, el NCMEC recibió más de 88,3 millones de archivos CSAM.

Varios factores pueden estar contribuyendo al aumento de las denuncias:

  1. Más plataformas están implementando herramientas, como el producto Safer de Thorn, para detectar CSAM conocido mediante hash y coincidencia.
  2. Los depredadores en línea son más descarados y utilizan tecnologías novedosas, como los chatbots, para aumentar su atractivo. De 2021 a 2022, el NCMEC experimentó un aumento del 82 % en los informes de incitación en línea a niños para realizar actos sexuales.
  3. El CSAM autogenerado (SG-CSAM) está en aumento. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en SG-CSAM.

Este contenido es un riesgo potencial para todas las plataformas que alojan contenido generado por el usuario, ya sea una imagen de perfil o un amplio espacio de almacenamiento en la nube.

Sólo la tecnología puede abordar la magnitud de este problema

Hash y coincidencia es una de las piezas de tecnología más importantes que las empresas de tecnología pueden utilizar para ayudar mantener a los usuarios y plataformas protegidos de los riesgos de alojar este contenido al mismo tiempo que ayuda a interrumpir la propagación viral del CSAM y los ciclos de revictimización.

Cada año se comparten en línea millones de archivos CSAM. Una gran parte de estos archivos son de CSAM previamente reportado y verificado. Debido a que el contenido es conocido y se ha agregado previamente a una lista hash de una ONG, se puede detectar usando hash y coincidencia.

¿Qué es el hash y la coincidencia?

En pocas palabras, el hash y la comparación son una forma programática de detectar CSAM e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como un huella digital para cada pieza de contenido.

Detección de CSAM

Para detectar CSAM, el contenido se procesa mediante hash y los valores hash resultantes se comparan con listas hash de CSAM conocidos. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Ampliando el corpus de CSAM conocido

El hash y la coincidencia son la base de la detección de CSAM. Debido a que se basa en la comparación con listas hash de contenido previamente reportado y verificado, la cantidad de valores hash CSAM conocidos en la base de datos con los que una empresa compara es fundamental.

Detección de CSAM

Safer, una herramienta para la detección proactiva de CSAM creada por Thorn, ofrece acceso a una gran base de datos que agrega más de 29 millones de valores hash CSAM conocidos. Safer también permite a las empresas de tecnología compartir listas hash entre sí (ya sea con nombre o de forma anónima), ampliando aún más el corpus de CSAM conocido, lo que ayuda a interrumpir su propagación viral.

Eliminando CSAM de Internet

Para eliminar el CSAM de Internet, las empresas de tecnología y las ONG tienen un papel que desempeñar. «Las plataformas de alojamiento de contenidos son socios clave, y Thorn está comprometido a empoderar a la industria tecnológica con herramientas y recursos para combatir el abuso sexual infantil a escala», añadió Starr. «Se trata de salvaguardar a nuestros niños. También se trata de ayudar a las plataformas tecnológicas a proteger a sus usuarios y a ellos mismos de los riesgos de albergar este contenido. Con las herramientas adecuadas, Internet puede ser más seguro».

Detección de CSAM

En 2022, Safer ha procesado más de 42,1 mil millones de imágenes y videos para sus clientes. Como resultado, se encontraron 520.000 archivos de CSAM conocidos en sus plataformas. Hasta la fecha, Safer ha ayudado a sus clientes a identificar más de dos millones de piezas de CSAM en sus plataformas.

Cuantas más plataformas utilicen herramientas de detección de CSAM, mayores serán las posibilidades de revertir el alarmante aumento de material de abuso sexual infantil en línea.


¿Encontró interesante este artículo? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57