Ola de dragado artificial

¿Recuerdas cuando los observadores de tendencias dijeron: «Pronto todos podrán hacer deepfakes»? Ahora tienen razón. Se acerca una ola de dragado artificial. Hora de prepararse. Cuando los maestros, agentes, padres y empleadores pronto escuchan este grito de ayuda, necesitan saber de qué se trata: «Ayuda, alguien ha creado una imagen dañina de mí con inteligencia artificial generativa». Una imagen con la víctima representada desnuda. O en circunstancias cuestionables. ‘¿Has visto esa foto de nuestro colega en una manifestación de extrema derecha?’

La gran diferencia con las herramientas deepfake actuales (sitios donde puedes pegar la cabeza de alguien en una película porno) es la infinita variedad de imágenes que generan modelos de imágenes impulsados ​​por inteligencia artificial. Eso hace que las fotos sean más difíciles de reconocer como falsas.

Porque puede asignar a un modelo de imagen todas las asignaciones posibles. En un minuto, aparecen cuatro interpretaciones. Di ‘una foto de un hámster con una patineta en Dam Square’ y listo, tienes cuatro fotos de hámsteres deportivos. Algunos de estos programas están al alcance de todos desde el pasado verano, siendo DALL-E la variante más conocida y accesible.

En parte, creo que es una gran noticia. Proporcionará todo tipo de nuevas aplicaciones creativas. Pero también estoy muy preocupado por su potencial malicioso.

Si intenta algo lascivo en DALL-E, la herramienta en línea no le dará un hogar. El propietario de DALL-E tiene control sobre lo que el modelo puede y tiene permitido hacer. Pero el modelo de imagen de difusión estable está disponible públicamente. Como resultado, los usuarios pueden ejecutar el modelo en su propia computadora y aprender cosas nuevas. Sin ningún tipo de supervisión.

Un programador rencoroso puede entrenar a Stable Diffusion alimentándolo con docenas de fotos de su ex. Basándose en esa colección de imágenes, Stable Diffusion genera todas las imágenes imaginables del antiguo amante. Es solo cuestión de tiempo antes de que las aplicaciones fáciles de usar estén ampliamente disponibles. Las variantes seguras ya son fáciles de usar a través de sitios como avatarai.me.

“La mayoría de la gente todavía no sabe que esta tecnología existe”, escribe el pensador tecnológico Alberto Romero en su boletín informativo, “pero no pasará mucho tiempo antes de que se convierta en la corriente principal. Es fácil de usar, súper barato y extremadamente versátil. Y está mejorando rápidamente”.

En el mundo de la tecnología, no es más que el surgimiento de la inteligencia artificial generativa. Pero, ¿han oído hablar de la difusión estable en las comisarías si una víctima va a presentar pronto una denuncia? ¿Un empleador actúa directamente sobre una imagen dudosa de un miembro del personal? ¿O ella piensa primero: tal vez es falso?

Un deepfake de un conocido político desacredita rápidamente a los medios de comunicación. Pero ya es más complicado para un regidor defenderse. Mucho menos para un ciudadano normal sin podio. Por eso es tan importante que todos en los Países Bajos lo piensen dos veces cuando ven una imagen sorprendente. Material PO Box 51, si me preguntas.

Y mientras tanto, experimenta con el casto DALL-E. No solo para esos acogedores hámsteres, sino también para entender la tecnología.

Ernst-Jan Pfauth escribe aquí una columna cada dos semanas.



ttn-es-33