Quelle est l’ampleur de la menace des deepfakes audio ?
Source : DALLE-E / David Metzmacher
Comment fonctionnent les deepfakes dans le secteur audio ? Et que pouvez-vous faire à ce sujet ? Nicolas Müller, chercheur associé à l’Institut Fraunhofer pour la sécurité appliquée et intégrée (AISEC), explique.
ZDFheute : Monsieur Müller, comment fonctionnent les deepfakes audio ?
Source : Fraunhofer AISEC / Oliver Rüther
Source : Fraunhofer AISEC
ZDFheute : Quel est le danger des deepfakes audio ?
Muller: Vous êtes capable de mettre dans la bouche de toutes sortes de gens des mots qu’ils n’ont jamais prononcés.
Il y a 20 ans, un enregistrement audio mettant en vedette une personne spécifique était considéré comme authentique – il était pratiquement impossible de le simuler. Aujourd’hui, ce n’est plus comme ça.
ZDFheute: Comment l’IA audio est-elle utilisée à des fins abusives ?
Muller: Il y a des cas où des parents ont transféré de l’argent parce qu’ils pensaient avoir entendu au téléphone leur fille qui aurait eu un accident. Il existe également des cas où des sommes ont été transférées parce que les employés pensaient parler à leur patron.
L’IA peut aider les fraudeurs à rendre les appels choquants encore plus réalistes. Les deepfakes audio imitent les voix de la famille et des amis.25/01/2024 | 6:34 minutes
ZDFheute: Nous avons une super année électorale devant nous. Quelles sont les menaces dans ce contexte ?
Il s’agit d’une stratégie de désinformation : vous envoyez un flot important de messages parfois contradictoires, ce qui rend plus difficile la formation d’une opinion des destinataires – ou contribue à la confusion générale.
Vous voyez souvent sur Internet des images créées par l’intelligence artificielle. Certaines contrefaçons sont évidentes. Mais de plus en plus de contrefaçons dangereuses apparaissent.27/12/2023 | 1h50
ZDFheute: Que peux-tu y faire?
Muller: La technologie existe désormais, les interdictions sont donc difficiles à mettre en œuvre. Vous devez d’abord contrer cela par l’éducation aux médias, car elle sensibilise aux contrefaçons – qu’il s’agisse de textes, d’images, d’audio ou de vidéo. Il s’agit de sensibiliser les gens à l’existence des contrefaçons et de les informer sur la technologie qui les sous-tend.
Sur le plan technique, deux options s’offrent à vous : détecter ce qui est faux et vérifier ce qui est réel. La vérification de l’authenticité peut être imaginée comme un filigrane sur un billet de banque – cela s’applique également au contenu médiatique.
On tente par exemple de signer numériquement des photos ou des audios avec des informations clairement liées au contenu : quel appareil a été utilisé pour réaliser un enregistrement ? A quel endroit et à quelle heure ? Bien que ces certificats soient considérés comme infalsifiables, le problème est qu’ils peuvent être retirés relativement facilement.
Le professeur Judith Simon, professeur d’éthique des technologies de l’information, le dit clairement : les IA sont « des gens qui font des choses avec la technologie, avec des logiciels » – nous devons « voir comment arrêter cela ».11/01/2023 | 4:51 minutes
ZDFheute: Et comment reconnaître le mensonge ?
Muller: L’intelligence artificielle peut aider ici. En entraînant une IA avec une variété de fichiers audio réels et faux, elle apprend à reconnaître les différences par elle-même.
L’entretien a été réalisé par David Metzmacher.