Una nueva ley contra los ‘desnudos profundos’ no da en el blanco

Lawrence Verhagen

“La tecnología no es ni buena ni mala. Y tampoco neutral. La conocida cita del historiador estadounidense Melvin Kranzberg ocupa un lugar destacado en una pared de la exposición AI. Capacidad intelectual en el Museo Boerhaave de Leiden. Es otro recordatorio de una lección importante que a menudo olvidamos.

La tecnología detrás de los deepfakes también se puede utilizar para fines útiles (o divertidos si es necesario) y, lamentablemente, también para fines menos nobles. Casi todos los deepfakes son desnudos profundos. Aquí, diligentes aficionados al ático pegan digitalmente la cabeza de una mujer famosa en el cuerpo de una estrella porno, haciendo que parezca que la celebridad (también podría ser el vecino, por supuesto) está protagonizando una película porno. Esto va mucho más allá del torpe Photoshop: la inteligencia artificial garantiza que las imágenes en movimiento se vean realistas. Sin duda para la diversión del creador, pero de ninguna manera es inocente para la víctima. Se siente agredida.

En las últimas semanas, el presentador Welmoed Sijtsma ha abordado este lado de los deepfakes en un documental. En ella iba en busca del hombre que usó su imagen para tan profundo desnudo. El hombre de 38 años sospechoso de esto fue arrestado la semana pasada. Ha sido interrogado y puesto en libertad a la espera de los resultados de la investigación del Ministerio Público.

La tecnología ha existido durante años, pero de repente la política despertó esta semana. Solo por esa razón, la búsqueda de Sijtsma tiene sentido. Por iniciativa de Queeny Rajkowski (VVD), una mayoría en la Cámara de Representantes quiere prohibir la tecnología deepfake en algunos casos. La moción del VVD debe evitar que la tecnología se utilice con ‘fines maliciosos’. Eso puede ser pornografía, pero también desinformación. Los peticionarios de la moción quieren que la tecnología sea ‘restringida lo más específicamente posible y parcialmente prohibida’. Podría ser una opción para prohibir el uso privado solamente.

Desafortunadamente, a pesar de todas las buenas intenciones, las cosas salen mal aquí. En primer lugar en un sentido práctico. ¿Prohibir el uso privado? ¿Cómo? ¿Quién va a hacer cumplir eso? La tecnología es cada vez más accesible. Si aún necesita algo de perseverancia y destreza para producir un desnudo tan profundo, existen aplicaciones listas para usar para deepfakes inocentes. ¿Debería prohibirse todo este uso privado? Entonces la policía saca un gran trabajo de eso.

Pero la moción también es problemática en un sentido legal. Incluso más legislación para abordar un problema es un reflejo bien conocido, pero no siempre el correcto. Ya contamos con una legislación dentro del derecho penal con la que se puede abordar esta forma relativamente nueva de pornografía involuntaria, afirmó, entre otros, el abogado de medios Arnoud Engelfriet (en un blog), Jens van den Brink (en Twitter) y Otto Volgant (en villamedia). Artículo 139 nonies del Código Penal no se trata explícitamente de deepfakes, sino de ‘hacer una imagen de la naturaleza sexual de una persona’. Aún así, parece haber espacio para la interpretación. La solución de Engelfriet, por lo tanto, me parece muy útil: forzar una declaración. Sólo entonces habrá claridad. Y si todo va bien, tampoco necesitamos una nueva ley.





ttn-es-23