Redes sociales ordenadas a preservar imágenes de crímenes de guerra por el Congreso


Los miembros de los Comités de Supervisión y Reforma, así como de Asuntos Exteriores, dos comités del Congreso de EE. UU., han pedido a Meta, TikTok, YouTube y Twitter que archiven posibles pruebas de crímenes de guerra cometidos en Ucrania por el ejército ruso.

Evidencia para el futuro

Han pasado casi tres meses desde que Rusia atacó a Ucrania y se han documentado posibles crímenes de guerra en la región. En caso de futuras condenas contra Rusia, los representantes Carolyn Maloney, Gregory Meeks, Stephen Lynch y William Keating creen que publicar imágenes o videos en las redes sociales puede constituir evidencia contra los autores de estos crímenes.

En la misma categoría

Ylva Johansson al micrófono

Comisión Europea: un proyecto de ley contra la pornografía infantil preocupa a los defensores de la privacidad en Internet

Se han compartido imágenes y videos de estos actos despreciables en plataformas de redes sociales como Facebook, Instagram, Twitter, YouTube y TikTok. Si se verifica que es auténtico, este contenido podría proporcionar al gobierno de EE. UU. y a los investigadores internacionales de derechos humanos evidencia importante para ayudar a corroborar las acusaciones de crímenes de guerra y otras atrocidades cometidas por las fuerzas rusas contra el pueblo ucraniano. dice el Comité de Supervisión y Reforma en Comunicado de prensa.

Aplicaciones de redes sociales en un teléfono inteligente.Aplicaciones de redes sociales en un teléfono inteligente.

Se ha publicado mucho contenido sobre la guerra en Ucrania en las redes sociales. Fotografía: Jeremy Bezanger / Unsplash

Las redes sociales deben cambiar sus hábitos en tiempos de guerra

En general, el contenido violento se elimina de las plataformas, pero los eurodiputados se preguntan qué sucede con este contenido una vez que ya no está accesible en línea: “ Las plataformas de redes sociales eliminan de forma rutinaria el contenido gráfico que glorifica la violencia o el sufrimiento humano o que podría conducir a una mayor perpetración de violencia, y han implementado correctamente políticas de contenido gráfico para proteger a sus usuarios. Sin embargo, nos preocupa que los procesos mediante los cuales las plataformas de redes sociales eliminen o bloqueen dicho contenido, incluso a través de sistemas automatizados y basados ​​en inteligencia artificial, puedan resultar en la eliminación involuntaria y la eliminación permanente de contenido que podría usarse como prueba de derechos humanos potenciales. violaciones tales como crímenes de guerra, crímenes de lesa humanidad y genocidio “, escribieron en una carta dirigida a los directores ejecutivos de las cuatro plataformas en cuestión.

Así, les piden en particular que conserven y archiven contenidos potencialmente útiles durante un período prolongado; coordinarse con las organizaciones internacionales de derechos humanos para desarrollar una forma legal y establecida de compartir este contenido, pero también para aumentar la transparencia de los sistemas de moderación de contenido basados ​​en inteligencia artificial y su interfaz con el contenido de guerra. Además, les piden que creen una forma para que los usuarios denuncien el contenido que creen que puede contener evidencia de crímenes de guerra.

Esta no es la primera vez que se utiliza la tecnología en este contexto. En 2020, la Universidad de Swansea en el Reino Unido, así como varias asociaciones, imaginaron una IA capaz de analizar una gran cantidad de imágenes para detectar crímenes de guerra cometidos en Yemen por Arabia Saudita.



ttn-es-4