¿Qué tan peligrosos son los deepfakes de audio?


¿Qué tan grande es la amenaza de los deepfakes de audio?

Fuente: DALLE-E / David Metzmacher


¿En qué imagen, en qué vídeo, en qué grabación de sonido todavía podemos confiar? La inteligencia artificial generativa hace que la falsificación sea un juego de niños, lo que supone una amenaza, especialmente en un año súper electoral con las elecciones europeas y estadounidenses.

¿Cómo funcionan los deepfakes en el sector del audio? ¿Y qué puedes hacer al respecto? Así lo explica Nicolas Müller, investigador asociado del Instituto Fraunhofer de Seguridad Aplicada e Integrada (AISEC).

ZDFheute: Señor Müller, ¿cómo funcionan los deepfakes de audio?

Nicolás Müller: Para que una IA suene como Donald Trump o Joe Biden, primero necesita un generador de voz que ya pueda hablar, es decir, entrenado con numerosos pares de archivos de audio y transcripciones. Utilizando una técnica llamada “aprendizaje de pocos disparos”, esta IA ahora puede extraer sus características vocales típicas de grabaciones muy cortas, como un discurso de 20 segundos de Donald Trump, y generar nuevas oraciones con esta voz.

Dr.  Nicolas Müller, investigador asociado del Instituto Fraunhofer de Seguridad Aplicada e Integrada AISEC

Fuente: Fraunhofer AISEC / Oliver Rüther


Dr. Nicolas Müller estudió matemáticas, informática y teología para el examen estatal en la Universidad de Friburgo y se graduó con honores en 2017. Desde 2017 es investigador asociado en Fraunhofer AISEC en el departamento “Tecnologías de seguridad cognitiva”. Su investigación se centra en la confiabilidad de los modelos de IA, los atajos de ML y los deepfakes de audio.

Fuente: Fraunhofer AISEC


ZDFheute: ¿Cuál es el peligro de los deepfakes de audio?

Müller: Eres capaz de poner en boca de todo tipo de personas palabras que nunca han dicho.

Esto exacerba la crisis de confianza ya existente en los medios.

Hace 20 años, una grabación de audio en la que aparecía una persona específica se consideraba auténtica: era prácticamente imposible falsificarla. Hoy en día ya no es así.

ZDFheute: ¿Cómo se utiliza la IA de audio con fines abusivos?

Müller: Hay casos en los que los padres transfirieron dinero porque creyeron escuchar por teléfono a su hija que supuestamente había tenido un accidente. También hay casos en los que se transfirieron cantidades porque los empleados pensaron que estaban hablando con su jefe.

Entonces hay una nueva estafa.

Se ven las manos de una persona mayor y en la mano derecha sostiene un auricular de teléfono blanco.

La IA puede ayudar a los estafadores a hacer que las llamadas de sorpresa sean aún más realistas. Los audio deepfakes imitan las voces de familiares y amigos.25/01/2024 | 6:34 minutos


ZDFheute: Nos espera un año súper electoral. ¿Qué amenazas hay en este contexto?

Müller: Ya existen falsificaciones que claramente tienen objetivos políticos. Rusia claramente tiene interés en debilitar nuestra democracia.

Con la IA de audio, es muy posible debilitar la confianza de la gente en la política.

Un ejemplo es una grabación de audio falsa de la madre de Alexey Navalny en la que supuestamente habla negativamente de Yulia Navalnaya, la viuda de su hijo. En este caso concreto, Navalny debería ser desacreditado póstumamente. Además, se distribuyó un deepfake de Volodymyr Zelenskyj, el presidente de Ucrania, en el que supuestamente pedía a la gente que depusiera las armas.

Se trata de una estrategia de desinformación: se envía una gran avalancha de mensajes a veces contradictorios, lo que dificulta que los destinatarios se formen una opinión o contribuyan a la confusión general.

Audio AI es una nueva herramienta en la maleta de las campañas de desinformación política.

Imagen simbólica: Inteligencia Artificial (IA)

A menudo se ven imágenes en Internet creadas por inteligencia artificial. Algunas falsificaciones son obvias. Pero cada vez surgen más falsificaciones peligrosas.27/12/2023 | 1:50 minutos


ZDFheute: ¿Qué puedes hacer al respecto?

Müller: La tecnología ya existe, por lo que las prohibiciones son difíciles de implementar. En primer lugar, esto debería contrarrestarse con la alfabetización mediática, ya que aumenta la conciencia sobre las falsificaciones, ya sea en texto, imágenes, audio o vídeo. Se trata de sensibilizar a la gente sobre el hecho de que existen falsificaciones e informarles sobre la tecnología que hay detrás de ellas.

En el aspecto técnico, hay dos opciones: detectar lo falso y verificar lo real. La verificación de la autenticidad se puede imaginar como una marca de agua en un billete; esto también se aplica al contenido multimedia.

Se intenta, por ejemplo, firmar digitalmente fotografías o audios con información claramente vinculada al contenido: ¿Qué dispositivo se utilizó para realizar una grabación? ¿En qué lugar y a qué hora? Aunque estos certificados se consideran a prueba de manipulaciones, el problema es que se pueden eliminar con relativa facilidad.

Prof. Judith Simon, Profesora de Ética en Tecnologías de la Información

La profesora Judith Simon, profesora de Ética en Tecnologías de la Información, lo deja claro: la IA son “personas que hacen cosas con tecnología, con software”; tenemos que “ver cómo podemos detener eso”.01/11/2023 | 4:51 minutos


ZDFheute: ¿Y cómo se puede reconocer la falsedad?

Müller: La inteligencia artificial puede ayudar aquí. Al entrenar una IA con una variedad de archivos de audio reales y falsos, aprende a reconocer las diferencias por sí misma.

Si se utiliza correctamente, se creará un modelo de IA que debería poder identificar falsificaciones previamente desconocidas.

Ofrecemos en el sitio web. deepfake-total.com la opción de cargar sus propios archivos y comprobar si son falsos para obtener una evaluación. La esperanza es proporcionar a los no científicos una herramienta sencilla que pueda utilizarse para identificar falsificaciones. En el futuro, estos sistemas podrían integrarse directamente en las redes sociales para detectar automáticamente las falsificaciones.

La entrevista fue realizada por David Metzmacher.



ttn-es-39