Meta se disculpa por las publicaciones dañinas de Instagram vistas por Molly Russell


Un alto ejecutivo de Meta se disculpó por permitir que una adolescente británica que se quitó la vida viera publicaciones gráficas relacionadas con autolesiones y suicidios en Instagram que deberían haber sido eliminadas, pero defendió otro contenido controvertido como “seguro” para los niños.

Molly Russell de Harrow, Londres, murió en noviembre de 2017 después de ver un gran volumen de publicaciones en sitios como Instagram y Pinterest, propiedad de Meta, relacionadas con la ansiedad, la depresión, el suicidio y las autolesiones.

La jefa de salud y bienestar de Meta, Elizabeth Lagone, dijo el lunes en la investigación sobre la muerte de Russell en el tribunal forense del norte de Londres que el adolescente había “visto contenido que violaba nuestras políticas y lo lamentamos”.

Cuando se le preguntó si lo sentía, agregó: “Lamentamos que Molly haya visto contenido que violó nuestras políticas y no queremos eso en la plataforma”.

La investigación marca un ajuste de cuentas para las plataformas de redes sociales, que son ampliamente utilizadas por los jóvenes y cuyos modelos comerciales priorizaron históricamente el rápido crecimiento, el compromiso y el tiempo dedicado a ver contenido.

Desde la muerte de Russell, ha habido una mayor conciencia de cómo se pueden diseñar algoritmos para difundir contenido que aliente a los usuarios a interactuar con él, lo que a veces ha llevado a que los niños estén expuestos a material dañino.

La investigación escuchó que en los últimos seis meses de su vida, Russell se comprometió con alrededor de 2100 publicaciones relacionadas con el suicidio, las autolesiones o la depresión.

Lagone dijo que algunas publicaciones con las que Russell había interactuado se habían eliminado porque violaban las políticas que se endurecieron en 2019 para prohibir las autolesiones gráficas y el contenido suicida. Un video que Lagone admitió no era “adecuado para que cualquiera lo vea”.

Sin embargo, defendió algunos contenidos de autolesiones que Russell había visto como “seguros” para que los niños los vieran.

Cuando el abogado de la familia Russell, Oliver Sanders KC, le preguntó si el material relacionado con la autolesión y la depresión que vio Russell era seguro para que lo vieran los niños, dijo: “Respetuosamente, no creo que sea una pregunta binaria”, y agregó que “algunas personas podrían encontrar consuelo” al saber que no estaban solos.

El forense senior Andrew Walker intervino para preguntar: “Entonces, está diciendo que sí, que es seguro. . . ?” a lo que Lagone respondió: “Sí, es seguro”.

Lagone pasó por una serie de publicaciones con las que Russell se comprometió en los meses previos a su muerte. Ella los describió como “en general, admisibles”, lo que significa que involucraban a personas que relataban sus experiencias y, potencialmente, hacían un grito de ayuda.

En el momento de la muerte de Russell, Instagram permitía publicaciones gráficas que pudieran permitir a las personas buscar ayuda y apoyo, pero no aquellas que alentaran o promovieran el suicidio y las autolesiones.

Lagone dijo que Instagram había “escuchado abrumadoramente de los expertos” que la compañía “no debería tratar de eliminar [certain content linked to depression and self-harm] debido al mayor estigma y vergüenza que puede causar a las personas que están luchando”, dijo. También dijo que el contenido era “maticado” y “complicado”.

En un intercambio, Sanders dijo: “¿Por qué diablos estás haciendo esto? . . . ha creado una plataforma que permite a las personas poner contenido potencialmente dañino en ella [and] estás invitando a los niños a la plataforma. No sabes dónde está el equilibrio del riesgo”.

El padre de Russell, Ian Russell, dijo en la investigación la semana pasada que creía que los algoritmos de las redes sociales habían empujado a su hija hacia publicaciones gráficas e inquietantes y contribuyeron a su muerte.

El año pasado, un denunciante filtró una investigación interna de Instagram que sugería que la aplicación podría tener un impacto negativo en la salud mental de los adolescentes, algo que la compañía dijo que estaba tergiversado. Esto provocó una discusión generalizada desde los legisladores hasta los padres sobre los efectos de las redes sociales en las mentes de los jóvenes.

Unas semanas después, Instagram detuvo sus planes de lanzar Instagram Kids, una aplicación para menores de 13 años.

Cualquier persona en el Reino Unido afectada por los problemas planteados en este artículo puede comunicarse con los samaritanos de forma gratuita al 116 123.



ttn-es-56