TikTok bajo investigación del gobierno de EE. UU. por material de abuso sexual infantil


TikTok está siendo investigado por agencias gubernamentales de EE. UU. por su manejo de material de abuso sexual infantil, ya que la creciente aplicación de videos de formato corto lucha por moderar una avalancha de contenido nuevo.

Lidiar con depredadores sexuales ha sido un desafío permanente para las plataformas de redes sociales, pero la base de usuarios jóvenes de TikTok lo ha vuelto vulnerable a ser un objetivo.

El Departamento de Seguridad Nacional de EE. UU. está investigando cómo TikTok maneja el material de abuso sexual infantil, según dos fuentes familiarizadas con el caso.

El Departamento de Justicia también está revisando cómo los depredadores están explotando una función de privacidad específica en TikTok, dijo una persona con conocimiento del caso. El Departamento de Justicia tiene una política de larga data de no confirmar ni negar la existencia de investigaciones en curso.

“Es un lugar perfecto para que los depredadores se reúnan, preparen y se relacionen con los niños”, dijo Erin Burke, jefa de la unidad de investigaciones de explotación infantil en la división de delitos cibernéticos de Seguridad Nacional, calificándola como la “plataforma de elección” para el comportamiento.

Las investigaciones destacan cómo TikTok está luchando para hacer frente al torrente de contenido generado por más de mil millones de usuarios. La empresa, propiedad de ByteDance de China, tiene más de 10.000 moderadores humanos en todo el mundo y ha estado contratando personal rápidamente en esta área.

El negocio está en auge. Un pronóstico de Insider Intelligence sitúa los ingresos publicitarios de TikTok en 11.600 millones de dólares este año, tres veces más que los 3.900 millones de dólares del año pasado.

Mark Zuckerberg, director ejecutivo de Meta, culpó a la popularidad de TikTok entre los jóvenes como la razón principal de la desaceleración del interés en sus plataformas de redes sociales más establecidas, como Facebook e Instagram.

Pero Meta tiene una mayor experiencia en el manejo de material problemático, con alrededor de 15,000 moderadores en todo el mundo y empleando otros sistemas automatizados diseñados para marcar publicaciones.

Entre 2019 y 2021, el número de investigaciones de explotación infantil relacionadas con TikTok por parte de Seguridad Nacional se ha multiplicado por siete.

Las redes sociales utilizan tecnología entrenada en una base de datos de imágenes recopiladas por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), una organización centralizada donde las empresas están legalmente obligadas a denunciar material de abuso infantil.

TikTok reportó casi 155 000 videos el año pasado, mientras que Instagram, que también tiene más de 1000 millones de usuarios, tuvo casi 3,4 millones de informes. TikTok no recibió ninguna solicitud de eliminación del NCMEC el año pasado, a diferencia de sus rivales Facebook, Instagram y YouTube.

“TikTok tiene tolerancia cero con el material de abuso sexual infantil”, dijo la compañía. “Cuando encontramos cualquier intento de publicar, obtener o distribuir [child sexual abuse material]eliminamos contenido, prohibimos cuentas y dispositivos, informamos de inmediato al NCMEC y nos relacionamos con las fuerzas del orden según sea necesario”.

Sin embargo, Burke de Homeland Security afirmó que las empresas internacionales como TikTok estaban menos motivadas cuando trabajaban con las fuerzas del orden de EE. UU. «Queremos [social media companies] para asegurarse de manera proactiva de que los niños no sean explotados ni abusados ​​en sus sitios, y no puedo decir que lo estén haciendo, y puedo decir que muchas empresas estadounidenses lo están haciendo”, agregó.

TikTok dijo que había eliminado el 96 por ciento del contenido que violaba sus políticas de seguridad de menores antes de que alguien lo viera. Los videos de menores bebiendo alcohol y fumando representaron la mayoría de las eliminaciones según estas pautas.

Un patrón que el Financial Times verificó con grupos encargados de hacer cumplir la ley y de seguridad infantil fue el contenido adquirido y comercializado a través de cuentas privadas, al compartir la contraseña con las víctimas y otros depredadores. Las palabras clave clave se usan en videos públicos, nombres de usuario y biografías, pero el contenido ilegal se carga usando la función «Solo yo» de la aplicación, donde los videos solo son visibles para aquellos que iniciaron sesión en el perfil.

Seara Adair, una activista de seguridad infantil, informó esta tendencia a las fuerzas del orden público de EE. UU. después de marcar primero el contenido en TikTok y que le dijeran que un video no violaba las políticas. “TikTok habla constantemente sobre el éxito de su inteligencia artificial, pero un niño claramente desnudo se está colando”, dijo Adair. Todas las cuentas y videos referidos a TikTok por el FT ahora se han eliminado.

“Estamos profundamente comprometidos con la seguridad y el bienestar de los menores, por lo que integramos la seguridad de los jóvenes en nuestras políticas, habilitamos configuraciones de privacidad y seguridad de forma predeterminada en las cuentas de adolescentes y limitamos las funciones por edad”, agregó TikTok.



ttn-es-56