LE père au cœur brisé d’une adolescente qui s’est suicidée après avoir consulté des publications ignobles sur les réseaux sociaux a averti que d’autres enfants étaient toujours ciblés.
Molly, 14 ans, a consulté des milliers de messages inquiétants dans les mois qui ont précédé sa mort en 2017.
Son père, Ian Russell, fait désormais campagne pour une meilleure sécurité sur Internet après que Molly ait pu visionner des contenus sur le suicide et l’automutilation en ligne.
Il affirme que les sociétés de médias sociaux continuent de proposer « des contenus préjudiciables à des millions de jeunes » et que « peu de choses ont changé » depuis que Molly s’est suicidée.
M. Russell a déclaré : « Cette semaine, alors que nous devrions célébrer le 21e anniversaire de Molly, il est attristant de voir l’ampleur horrible des dommages en ligne et à quel point les plateformes de médias sociaux ont peu changé depuis la mort de Molly.
“Plus les entreprises technologiques sont longues échouer pour remédier aux dommages évitables qu’ils causent, plus cela devient inexcusable.
« Six ans après la mort de Molly, cela doit désormais être considéré comme un échec systémique fondamental qui continuera de coûter de jeunes vies.
“Tout comme Molly était submergée par le volume de contenus dangereux qui la bombardaient, nous avons découvert des preuves d’algorithmes diffusant des contenus préjudiciables vers des millions de jeunes.
“Cela doit cesser. Il est de plus en plus difficile de considérer les actions des entreprises technologiques comme autre chose qu’une décision commerciale consciente visant à permettre à des contenus préjudiciables d’atteindre une portée astronomique, tout en ignorant la misère monétisée par les publications nuisibles sauvegardées et potentiellement “binge-watchées”. ‘ par dizaines de milliers.
L’association caritative de prévention du suicide, la Fondation Molly Rose, a déclaré avoir découvert des contenus préjudiciables à grande échelle et répandus sur Instagram, TikTok et Pinterest.
Sur TikTok, certains des articles les plus consultés faisant référence au suicide, à l’automutilation et au contenu hautement dépressif ont été vus et aimés plus d’un million de fois.
En septembre dernier, Molly, une écolière de Harrow, au nord-ouest de Londres, a été jugée par un coroner, décédée des suites « d’un acte d’automutilation alors qu’elle souffrait de dépression et des effets négatifs du contenu en ligne » en novembre 2017.
Le rapport de l’association a été créé en partenariat avec l’organisation data for good, The Bright Initiative, et a vu la Fondation collecter et analyser les données de 1 181 des publications les plus suivies sur Instagram et TikTok qui utilisaient des hashtags bien connus autour du suicide. l’automutilation et la dépression.
Il prévient qu’il estime qu’il existe un problème clair et persistant lié aux contenus nuisibles et facilement disponibles, car bon nombre des publications nuisibles analysées étaient également recommandées par les algorithmes d’une plateforme.
Le rapport note que si ses préoccupations concernant les hashtags se concentraient principalement sur Instagram et TikTok, ses préoccupations concernant les recommandations algorithmiques s’appliquaient également à Pinterest.
La Fondation Molly Rose s’est déclarée préoccupée par le fait que la conception et l’exploitation des plateformes de médias sociaux augmentent considérablement le profil de risque de certains jeunes en raison de la facilité avec laquelle ils peuvent trouver de grandes quantités de contenu potentiellement dangereux en recherchant des hashtags ou en étant recommandés. contenu sur un thème similaire.
Il a déclaré que les plateformes ne parvenaient pas non plus à évaluer correctement les risques posés par les fonctionnalités qui permettent aux utilisateurs de trouver des publications sur des thèmes similaires, et a affirmé que les pressions commerciales augmentaient le risque alors que les sites se faisaient concurrence pour attirer l’attention des jeunes utilisateurs et les inciter à parcourir leur flux. .
Suite aux recommandations du coroner, la société mère d’Instagram, Meta, a déclaré qu’elle soutenait davantage de réglementation des médias sociaux.
En réponse, un porte-parole de la société Meta a déclaré : « Nous nous engageons à faire d’Instagram une expérience sûre et positive pour tout le monde, en particulier les adolescents, et nous examinons le rapport du coroner.
“Nous convenons qu’une réglementation est nécessaire et nous avons déjà travaillé sur bon nombre des recommandations décrites dans ce rapport, notamment de nouveaux outils de supervision parentale qui permettent aux parents de voir qui suivent leurs adolescents et de limiter le temps qu’ils passent sur Instagram.
“Nous définissons également automatiquement les comptes des adolescents comme privés lorsqu’ils s’inscrivent, les incitons à choisir un contenu différent s’ils parcourent le même sujet depuis un certain temps et disposons de contrôles conçus pour limiter les types de contenu que les adolescents voient.
“Nous n’autorisons pas les contenus incitant au suicide ou à l’automutilation, et nous trouvons 98 % des contenus sur lesquels nous agissons avant qu’ils ne nous soient signalés.
“Nous continuerons à travailler dur, en collaboration avec des experts, des adolescents et des parents, afin de continuer à nous améliorer.”
Pinterest a déclaré qu’il examinerait « avec attention » les recommandations formulées.
Un porte-parole de Pinterest a déclaré : « Nos pensées vont à la famille Russell.
“Nous avons écouté très attentivement tout ce que le coroner et la famille ont dit au cours de l’enquête.
“Pinterest s’engage à apporter des améliorations continues pour garantir que la plateforme est sûre pour tous et le rapport du coroner sera examiné avec attention.
“Au cours des dernières années, nous avons continué à renforcer nos politiques concernant les contenus d’automutilation, nous avons fourni des moyens d’apporter un soutien compatissant à ceux qui en ont besoin et nous avons investi massivement dans la création de nouvelles technologies qui identifient automatiquement et agissent en conséquence. contenu d’automutilation.
“L’histoire de Molly a renforcé notre engagement à créer un espace sûr et positif pour nos Pinners.”
Le Sun a contacté TikTok pour commentaires.