La urgencia de actuar ante la proliferación de deepfakes


Los deepfakes, perfeccionados y más accesibles con la aparición de la IA generativa, son sumamente preocupantes. Más de 500 investigadores y expertos piden en una carta abierta su estricta regulación.

Penalizan los deepfakes de pornografía infantil

Los deepfakes suponen una amenaza creciente para la sociedad y los gobiernos deben imponer obligaciones en toda la cadena de suministro para detener su proliferación. », advierten. La situación es tanto más preocupante cuanto que este año se celebrarán numerosas elecciones en todo el mundo.

En enero, un audio deepfake de Joe Biden animando a los votantes estadounidenses a no acudir a las urnas para las primarias demócratas alertó especialmente a los expertos. Este es sólo un ejemplo del impacto potencial de esta tecnología en los procesos democráticos. Asimismo, los firmantes recomiendan frenar el resurgimiento de la pornografía y la pornografía infantil deepfake mediante medidas enérgicas.

Piden la criminalización total de este tipo de contenidos protagonizados por niños, ya sean personajes reales o ficticios. También deberían introducirse sanciones penales para quienes creen o distribuyan deepfakes dañinos, continúan. Los promotores también tienen un incentivo para impedir su creación y deberían ser penalizados si sus medidas de prevención son inadecuadas.

La UE intenta legislar, Estados Unidos más mesurado

La publicación de esta carta se produce cuando la Unión Europea busca actuar para contrarrestar el problema, por ejemplo identificando todo el contenido generado por inteligencia artificial. Los legisladores también quieren castigar penalmente los deepfakes pornográficos.

Al otro lado del Atlántico, la proliferación de imágenes falsas de Taylor Swift en X, antes Twitter, alertó recientemente a la clase política. Sin embargo, Washington sigue siendo mesurado en su supervisión de la IA, sobre todo presionando a las empresas para que mitiguen los riesgos. Esta semana se anunció un grupo de trabajo con la misión de producir un informe sobre las amenazas relacionadas con la IA y las formas de limitarlas legislativamente.

A medida que la IA avanza rápidamente y es mucho más fácil crear deepfakes, se necesitan salvaguardias », Indique los firmantes de la carta. Entre ellos se encuentran investigadores de Google DeepMind y un empleado de OpenAI.

Una carta similar, firmada por miles de grandes nombres como Elon Musk, pedía el año pasado un cese temporal de la investigación sobre IA generativa. Objetivo: evaluar mejor los riesgos para protegerse contra ellos de forma más eficaz. Nadie ha implementado esta recomendación.



ttn-es-4