Grand-mère m’a enfermé dans le four à 230 degrés alors que je n’avais que 21 mois », explique le mignon bébé aux immenses yeux bleus et au bandeau à fleurs dans une vidéo TikTok.

Le bébé, qui parle d’une voix enfantine attachante sur l’air plaintif de « Love Is Gone » de Dylan Mathews, se révèle être Rody Marie Floyd, une petite fille qui vivait dans le Mississippi avec sa mère et sa grand-mère. Elle dit qu’un jour, elle avait faim et n’arrêtait pas de pleurer, après quoi sa grand-mère l’a mise au four, ce qui a entraîné sa mort. « S’il vous plaît, suivez-moi pour que plus de gens connaissent ma véritable histoire », dit le bébé à la fin de la vidéo.

Le bébé dans la vidéo n’est pas réel, bien sûr : il s’agit d’une création d’intelligence artificielle publiée sur le compte @truestorynow sur TikTok, un compte avec près de 50 000 abonnés qui publie des vidéos de vraies victimes d’actes criminels racontant leur histoire.

L’horrible histoire qu’elle raconte est vraie, ne serait-ce qu’en partie. Le bébé ne s’appelait pas Rody Marie, mais Royalty Marie, et a été retrouvé poignardé à mort et brûlé dans un four chez sa grand-mère dans le Mississippi en 2018. La grand-mère, Carolyn Jones, 48 ​​ans, a été accusée de meurtre plus tôt cette année. Mais Royalty avait 20 mois lorsqu’elle est décédée, pas 21, et contrairement au bébé de la vidéo TikTok, elle était noire, pas blanche.

Les victimes parlent souvent d’elles-mêmes et racontent leur horrible disparition

De telles inexactitudes sont monnaie courante dans le monde grotesque du vrai crime d’IA TikTok, qui utilise l’intelligence artificielle pour ressusciter les victimes de meurtre, dont beaucoup sont de jeunes enfants. Dans les vidéos, dont certaines ont été visionnées des millions de fois, une victime parle des détails horribles de sa mort du point de vue de la première personne ; la plupart d’entre eux ne sont pas accompagnés d’un avertissement de contenu.

« Ils sont assez bizarres et effrayants », a déclaré Paul Bleakley, professeur adjoint de justice pénale à l’Université de New Haven, à ROLLING STONE. « Ils semblent conçus pour susciter de fortes réactions émotionnelles car c’est le moyen le plus sûr d’obtenir des clics et des likes. C’est gênant à regarder, mais je pense que c’est peut-être le point.

De nombreux comptes ont une clause de non-responsabilité indiquant que les vidéos n’utilisent pas de vraies photos des victimes pour « respecter la vie privée de la famille », comme Nostalgia Narratives, un compte qui publie de véritables vidéos de victimes de crimes pour ses 175 000 abonnés, écrit dans le légendes des vidéos.

Le récit ne raconte pas seulement les histoires de célèbres victimes de meurtres d’enfants comme Elisa Izquierdo, une fillette de six ans qui a été assassinée par sa mère violente en 1995, et Star Hobson, un an qui a été tué par la petite amie de sa mère en 2020. , mais aussi des adultes victimes de meurtre comme George Floyd et JFK. Aucun des comptes contactés par ROLLING STONE n’a répondu aux demandes de commentaires, mais le fait qu’ils modifient l’apparence des victimes est probablement dû aux directives de la communauté TikTok interdisant le deepfake d’individus ou de mineurs, une politique médiatique générée que la plateforme a déployée en mars.

La diffusion de ces vidéos d’IA avec de vraies victimes d’actes criminels sur TikTok soulève des questions éthiques. Bien que des documentaires comme The Jinx et Making a Murderer et des podcasts comme Crime Junkie et My Favorite Murder aient de nombreux adeptes, de nombreux critiques du vrai genre de crime ont contesté les implications éthiques de la consommation d’histoires réelles plutôt que d’horribles. Les vols et les meurtres sont considérés comme un pur divertissement. , avec la montée des détectives amateurs et des vrais obsédés du crime traumatisant peut-être à nouveau les familles des victimes.

Cette préoccupation est doublement vraie pour des vidéos comme celle de Royalty, qui racontent l’histoire d’une victime de son point de vue et utilisent son nom – vraisemblablement sans le consentement de la famille – avec un effet incroyablement effrayant. « Il a le potentiel de victimiser à nouveau des personnes qui ont déjà été victimes », déclare Bleakley. « Imaginez que vous êtes un parent ou un parent de l’un des enfants dans ces vidéos d’IA. Ils vont en ligne et voici une image AI [basierend auf] Votre enfant décédé qui décrit en détail très sanglant ce qui lui est arrivé.

Les plaintes pourraient n’aboutir à rien

Les vidéos deepfake, dans le cadre du véritable genre de crime, diffèrent du porno deepfake pour des raisons évidentes. Cependant, Bleakley peut imaginer que les familles en deuil intenteront une action civile contre les créateurs de ces vidéos, surtout si elles sont monétisées ; cependant, il note que puisque les individus sont décédés, il serait difficile pour les familles de faire un argument calomnieux. « C’est une zone grise très délicate et trouble », dit-il.

Cependant, une chose est claire : avec le développement rapide de la technologie de l’IA et le fait qu’il existe peu de réglementation pour freiner sa propagation, la question n’est pas de savoir si des vidéos comme celle-ci continueront à gagner en popularité, mais plutôt à quel point la connexion de le vrai crime et l’IA sont encore à venir.

Il est facile d’imaginer que les vrais vidéastes du crime peuvent non seulement recréer les voix des « victimes » de meurtre, mais aussi recréer les détails sanglants des crimes. « C’est toujours la question avec tout nouveau développement technologique », déclare Bleakley. « Où va-t-elle s’arrêter ?

Ce texte est une traduction d’un Article du ROLLINGSTONE.com



ttn-fr-30