¿Qué tan grande es la amenaza de los deepfakes de audio?
Fuente: DALLE-E / David Metzmacher
¿Cómo funcionan los deepfakes en el sector del audio? ¿Y qué puedes hacer al respecto? Así lo explica Nicolas Müller, investigador asociado del Instituto Fraunhofer de Seguridad Aplicada e Integrada (AISEC).
ZDFheute: Señor Müller, ¿cómo funcionan los deepfakes de audio?
Fuente: Fraunhofer AISEC / Oliver Rüther
Fuente: Fraunhofer AISEC
ZDFheute: ¿Cuál es el peligro de los deepfakes de audio?
Müller: Eres capaz de poner en boca de todo tipo de personas palabras que nunca han dicho.
Hace 20 años, una grabación de audio en la que aparecía una persona específica se consideraba auténtica: era prácticamente imposible falsificarla. Hoy en día ya no es así.
ZDFheute: ¿Cómo se utiliza la IA de audio con fines abusivos?
Müller: Hay casos en los que los padres transfirieron dinero porque creyeron escuchar por teléfono a su hija que supuestamente había tenido un accidente. También hay casos en los que se transfirieron cantidades porque los empleados pensaron que estaban hablando con su jefe.
La IA puede ayudar a los estafadores a hacer que las llamadas de sorpresa sean aún más realistas. Los audio deepfakes imitan las voces de familiares y amigos.25/01/2024 | 6:34 minutos
ZDFheute: Nos espera un año súper electoral. ¿Qué amenazas hay en este contexto?
Se trata de una estrategia de desinformación: se envía una gran avalancha de mensajes a veces contradictorios, lo que dificulta que los destinatarios se formen una opinión o contribuyan a la confusión general.
A menudo se ven imágenes en Internet creadas por inteligencia artificial. Algunas falsificaciones son obvias. Pero cada vez surgen más falsificaciones peligrosas.27/12/2023 | 1:50 minutos
ZDFheute: ¿Qué puedes hacer al respecto?
Müller: La tecnología ya existe, por lo que las prohibiciones son difíciles de implementar. En primer lugar, esto debería contrarrestarse con la alfabetización mediática, ya que aumenta la conciencia sobre las falsificaciones, ya sea en texto, imágenes, audio o vídeo. Se trata de sensibilizar a la gente sobre el hecho de que existen falsificaciones e informarles sobre la tecnología que hay detrás de ellas.
En el aspecto técnico, hay dos opciones: detectar lo falso y verificar lo real. La verificación de la autenticidad se puede imaginar como una marca de agua en un billete; esto también se aplica al contenido multimedia.
Se intenta, por ejemplo, firmar digitalmente fotografías o audios con información claramente vinculada al contenido: ¿Qué dispositivo se utilizó para realizar una grabación? ¿En qué lugar y a qué hora? Aunque estos certificados se consideran a prueba de manipulaciones, el problema es que se pueden eliminar con relativa facilidad.
La profesora Judith Simon, profesora de Ética en Tecnologías de la Información, lo deja claro: la IA son “personas que hacen cosas con tecnología, con software”; tenemos que “ver cómo podemos detener eso”.01/11/2023 | 4:51 minutos
ZDFheute: ¿Y cómo se puede reconocer la falsedad?
Müller: La inteligencia artificial puede ayudar aquí. Al entrenar una IA con una variedad de archivos de audio reales y falsos, aprende a reconocer las diferencias por sí misma.
La entrevista fue realizada por David Metzmacher.