Las falsificaciones de IA de las víctimas de delitos de TikTok son una tendencia peligrosa


La abuela me encerró en el horno a 230 grados cuando solo tenía 21 meses”, dice la linda bebé de enormes ojos azules y diadema floral en un video de TikTok.

La bebé, que habla con una voz cariñosamente infantil al ritmo lastimero de «Love Is Gone» de Dylan Mathews, se revela como Rody Marie Floyd, una niña que vivía en Mississippi con su madre y su abuela. Ella dice que un día tenía hambre y no dejaba de llorar, después de lo cual su abuela la metió en el horno, lo que resultó en su muerte. “Por favor, síganme para que más personas conozcan mi verdadera historia”, dice el bebé al final del video.

El bebé en el video no es real, por supuesto: es una creación de inteligencia artificial publicada en la cuenta @truestorynow en TikTok, una cuenta con casi 50,000 seguidores que publica videos de víctimas de crímenes reales que cuentan su historia.

La espantosa historia que cuenta es cierta, aunque solo sea en parte. La bebé no se llamaba Rody Marie, sino Royalty Marie, y fue encontrada muerta a puñaladas y quemada en un horno en la casa de su abuela en Mississippi en 2018. La abuela, Carolyn Jones, de 48 años, fue acusada de asesinato a principios de este año. Pero Royalty tenía 20 meses cuando murió, no 21, y a diferencia del bebé en el video de TikTok, ella era negra, no blanca.

Las víctimas a menudo hablan por sí mismas y cuentan su horrible fallecimiento.

Tales imprecisiones son comunes en el mundo grotesco de TikTok de crímenes reales de IA, que emplea inteligencia artificial para resucitar a las víctimas de asesinatos, muchas de las cuales son niños pequeños. En los videos, algunos de los cuales han sido vistos millones de veces, una víctima habla sobre los espantosos detalles de su muerte desde una perspectiva en primera persona; la mayoría de ellos no vienen con una advertencia de contenido.

«Son bastante extraños y espeluznantes», le dice a ROLLING STONE Paul Bleakley, profesor asistente de justicia penal en la Universidad de New Haven. «Parecen diseñados para provocar fuertes respuestas emocionales porque esa es la forma más segura de obtener clics y me gusta. Es incómodo de ver, pero creo que tal vez ese es el punto.

Muchas de las cuentas tienen un descargo de responsabilidad que indica que los videos no usan fotos reales de las víctimas para «respetar la privacidad de la familia», como Nostalgia Narratives, una cuenta que publica videos de víctimas de crímenes reales para sus 175,000 seguidores, escribe en el subtítulos de los videos.

La cuenta no solo cuenta las historias de famosas víctimas de asesinatos infantiles como Elisa Izquierdo, una niña de seis años que fue asesinada por su madre abusiva en 1995, y Star Hobson, un niño de un año que fue asesinado por la novia de su madre en 2020. , pero también víctimas adultas de asesinatos como George Floyd y JFK. Ninguna de las cuentas con las que ROLLING STONE contactó respondió a las solicitudes de comentarios, pero el hecho de que alteren la apariencia de las víctimas probablemente se deba a las pautas de la comunidad de TikTok que prohíben la falsificación profunda de personas o menores, una política de medios generada que la plataforma implementó en marzo.

La distribución de estos videos de IA con víctimas de delitos reales en TikTok plantea cuestiones éticas. Aunque documentales como The Jinx y Making a Murderer y podcasts como Crime Junkie y My Favourite Murder tienen muchos seguidores, muchos críticos del género del crimen real se han mostrado en desacuerdo con las implicaciones éticas de consumir historias reales en lugar de historias horribles. Robos y asesinatos cuestionados como puro entretenimiento. , con el surgimiento de detectives aficionados y obsesivos de crímenes reales que posiblemente vuelvan a traumatizar a las familias de las víctimas.

Esa preocupación es doblemente cierta para videos como el de Royalty, que cuentan la historia de una víctima desde su perspectiva y usan su nombre, presumiblemente sin el consentimiento de la familia, con un efecto increíblemente escalofriante. «Tiene el potencial de volver a victimizar a las personas que han sido víctimas antes», dice Bleakley. “Imagina que eres padre o pariente de uno de los niños en estos videos de IA. Se conectan en línea y aquí hay una imagen de IA [basierend auf] Su hijo fallecido que describe con detalles muy sangrientos lo que le sucedió”.

Las quejas podrían quedar en nada

Los videos deepfake, como parte del género del crimen real, difieren de la pornografía deepfake por razones obvias. Sin embargo, Bleakley puede imaginar que las familias en duelo emprenderán acciones civiles contra los creadores de tales videos, especialmente si se monetizan; sin embargo, señala que dado que los individuos han fallecido, sería difícil para las familias hacer un argumento de calumnias. «Es un área gris muy complicada y turbia», dice.

Sin embargo, una cosa está clara: con el rápido desarrollo de la tecnología de IA y el hecho de que hay poca regulación para frenar su propagación, la pregunta no es si videos como este seguirán creciendo en popularidad, sino cuánto peor será la conexión de El verdadero crimen y la IA aún están por llegar.

Es fácil imaginar que los creadores de videos de crímenes reales no solo pueden recrear las voces de las «víctimas» de asesinatos, sino también los detalles sangrientos de los crímenes. «Esa es siempre la pregunta con cualquier nuevo desarrollo tecnológico», dice Bleakley. «¿Dónde se detendrá?»

Este texto es una traducción de un Artículo de ROLLINGSTONE.com



ttn-es-30