À quel point les deepfakes audio sont-ils dangereux ?


Quelle est l’ampleur de la menace des deepfakes audio ?

Source : DALLE-E / David Metzmacher


À quelle image, quelle vidéo, quel enregistrement sonore peut-on encore se fier aujourd’hui ? L’intelligence artificielle générative fait de la contrefaçon un jeu d’enfant – ce qui constitue une menace, surtout dans une année très électorale avec les élections européennes et américaines.

Comment fonctionnent les deepfakes dans le secteur audio ? Et que pouvez-vous faire à ce sujet ? Nicolas Müller, chercheur associé à l’Institut Fraunhofer pour la sécurité appliquée et intégrée (AISEC), explique.

ZDFheute : Monsieur Müller, comment fonctionnent les deepfakes audio ?

Nicolas Müller : Pour qu’une IA ressemble à Donald Trump ou Joe Biden, elle a d’abord besoin d’un générateur de parole capable de parler, c’est-à-dire entraîné avec de nombreuses paires de fichiers audio et de transcriptions. Grâce à une technique appelée « Few-shot learning », cette IA peut désormais extraire ses caractéristiques vocales typiques à partir d’enregistrements très courts – comme un discours de 20 secondes de Donald Trump – et générer de nouvelles phrases avec cette voix.

Dr.  Nicolas Müller, chercheur associé à l'Institut Fraunhofer de sécurité appliquée et intégrée AISEC

Source : Fraunhofer AISEC / Oliver Rüther


Dr. Nicolas Müller a étudié les mathématiques, l’informatique et la théologie à l’examen d’État à l’Université de Fribourg et a obtenu son diplôme avec mention en 2017. Il est chercheur associé au Fraunhofer AISEC dans le département « Technologies de sécurité cognitive » depuis 2017. Ses recherches portent sur la fiabilité des modèles d’IA, des raccourcis ML et des deepfakes audio.

Source : Fraunhofer AISEC


ZDFheute : Quel est le danger des deepfakes audio ?

Muller: Vous êtes capable de mettre dans la bouche de toutes sortes de gens des mots qu’ils n’ont jamais prononcés.

Cela aggrave la crise de confiance déjà existante dans les médias.

Il y a 20 ans, un enregistrement audio mettant en vedette une personne spécifique était considéré comme authentique – il était pratiquement impossible de le simuler. Aujourd’hui, ce n’est plus comme ça.

ZDFheute: Comment l’IA audio est-elle utilisée à des fins abusives ?

Muller: Il y a des cas où des parents ont transféré de l’argent parce qu’ils pensaient avoir entendu au téléphone leur fille qui aurait eu un accident. Il existe également des cas où des sommes ont été transférées parce que les employés pensaient parler à leur patron.

Il y a donc une nouvelle arnaque.

On voit les mains d'une personne âgée, un combiné téléphonique blanc est tenu dans la main droite.

L’IA peut aider les fraudeurs à rendre les appels choquants encore plus réalistes. Les deepfakes audio imitent les voix de la famille et des amis.25/01/2024 | 6:34 minutes


ZDFheute: Nous avons une super année électorale devant nous. Quelles sont les menaces dans ce contexte ?

Muller: Il existe déjà des contrefaçons qui ont clairement des objectifs politiques. La Russie a clairement intérêt à affaiblir notre démocratie.

Avec l’IA audio, il est tout à fait possible d’ébranler la confiance des gens dans la politique.

Un exemple est un faux enregistrement audio de la mère d’Alexeï Navalny dans lequel elle aurait parlé négativement de Ioulia Navalnaya, la veuve de son fils. Dans ce cas précis, Navalny devrait être discrédité à titre posthume. En outre, un deepfake de Volodymyr Zelenskyj, le président ukrainien, a été diffusé dans lequel il aurait appelé la population à déposer les armes.

Il s’agit d’une stratégie de désinformation : vous envoyez un flot important de messages parfois contradictoires, ce qui rend plus difficile la formation d’une opinion des destinataires – ou contribue à la confusion générale.

Audio AI est un nouvel outil dans la valise des campagnes de désinformation politique.

Image symbolique : Intelligence Artificielle (IA)

Vous voyez souvent sur Internet des images créées par l’intelligence artificielle. Certaines contrefaçons sont évidentes. Mais de plus en plus de contrefaçons dangereuses apparaissent.27/12/2023 | 1h50


ZDFheute: Que peux-tu y faire?

Muller: La technologie existe désormais, les interdictions sont donc difficiles à mettre en œuvre. Vous devez d’abord contrer cela par l’éducation aux médias, car elle sensibilise aux contrefaçons – qu’il s’agisse de textes, d’images, d’audio ou de vidéo. Il s’agit de sensibiliser les gens à l’existence des contrefaçons et de les informer sur la technologie qui les sous-tend.

Sur le plan technique, deux options s’offrent à vous : détecter ce qui est faux et vérifier ce qui est réel. La vérification de l’authenticité peut être imaginée comme un filigrane sur un billet de banque – cela s’applique également au contenu médiatique.

On tente par exemple de signer numériquement des photos ou des audios avec des informations clairement liées au contenu : quel appareil a été utilisé pour réaliser un enregistrement ? A quel endroit et à quelle heure ? Bien que ces certificats soient considérés comme infalsifiables, le problème est qu’ils peuvent être retirés relativement facilement.

Prof. Judith Simon, professeure d'éthique en technologie de l'information

Le professeur Judith Simon, professeur d’éthique des technologies de l’information, le dit clairement : les IA sont « des gens qui font des choses avec la technologie, avec des logiciels » – nous devons « voir comment arrêter cela ».11/01/2023 | 4:51 minutes


ZDFheute: Et comment reconnaître le mensonge ?

Muller: L’intelligence artificielle peut aider ici. En entraînant une IA avec une variété de fichiers audio réels et faux, elle apprend à reconnaître les différences par elle-même.

S’il est utilisé correctement, un modèle d’IA sera créé et devrait être capable d’identifier les contrefaçons jusqu’alors inconnues.

Nous proposons sur le site deepfake-total.com la possibilité de télécharger vos propres fichiers et de les faire vérifier pour détecter les contrefaçons afin d’obtenir une évaluation. L’objectif est de fournir aux non-scientifiques un outil simple pouvant être utilisé pour identifier les contrefaçons. À l’avenir, de tels systèmes pourraient être intégrés directement aux médias sociaux pour signaler automatiquement les contrefaçons.

L’entretien a été réalisé par David Metzmacher.



ttn-fr-39