Nouveaux leurres d’escroquerie par téléphone avec la voix de l’IA

L’intelligence artificielle (IA) peut nous faciliter la vie de plusieurs façons. Mais les avancées technologiques comportent également des risques. Une nouvelle escroquerie téléphonique repose désormais sur des voix générées par l’IA qui ressemblent de manière confuse à de vraies personnes. Aux États-Unis, des criminels – déguisés en parents présumés dans le besoin – ont déjà réussi à tromper de nombreuses victimes sans méfiance.

Le fait que les escroqueries par SMS ou Whatsapp réussissent si souvent est également dû au fait que presque tout le monde peut être derrière des SMS. C’est également le cas avec le soi-disant truc du petit-enfant, où les escrocs prétendent être des parents proches par écrit. Les personnes âgées en particulier, dont la mémoire n’est plus tout à fait en forme et qui peuvent avoir des problèmes avec la technologie, sont relativement faciles à déstabiliser. Donc, si une personne reçoit un message du petit-fils apparent qui se trouve dans une situation d’urgence, le sac à main est rapidement retiré. La fraude téléphonique, en revanche, peut échouer parce que la victime perçoit la voix du parent présumé comme étrangère. Mais c’est précisément cet obstacle que les criminels peuvent désormais surmonter – avec l’aide de voix générées par l’IA.

Imitation vocale avec IA – comment ça marche ?

L’IA est l’imitation de l’intelligence humaine. Avec l’aide des données de formation introduites dans les programmes et traitées par eux, l’IA peut répondre aux questions et anticiper par elle-même. Les domaines d’application répandus sont, par exemple, les systèmes de recommandation de Netflix and Co., qui sont basés sur le comportement de streaming des utilisateurs, ou la fonction de reconnaissance faciale et vocale des smartphones. Un juge colombien a récemment lu un verdict qu’il avait rédigé par le bot AI ChatGPT.

Les capacités de l’IA sont encore suffisantes pour intérioriser et imiter fidèlement la voix des gens à l’aide de courts échantillons sonores. Un logiciel développé à cet effet analyse ce qui rend une voix unique, selon un article actuel du quotidien « Washington Post ». Ils tiennent également compte de l’âge et du sexe estimés de la personne ainsi que d’éventuelles particularités (par exemple, troubles de la parole, accents). Sur cette base, l’IA sélectionne une voix dans une énorme base de données de voix qui ressemble le plus au modèle.

De nombreux cas de fraude aux États-Unis

Comme le rapporte le journal, les appels frauduleux avec des voix générées par l’IA augmentent actuellement aux États-Unis. Le cas du couple Card est présenté, elle a 73 ans et lui 75 ans. Ils ont été appelés de prison par leur petit-fils supposé, Brandon, avec une demande urgente de caution. En conséquence, les grands-parents effrayés veulent avoir visité plusieurs institutions financières et retirer le montant le plus élevé possible de leurs comptes. Dans ce cas, le directeur de l’une des banques a pu prévenir encore pire. Il avait déjà entendu parler de l’arme du voleur par d’autres clients et l’a donc dénoncé comme une arnaque. Un autre couple plus âgé, en revanche, a transféré les quelque 15 000 $ exigés par l’escroc (le fils présumé) sans hésitation.

Ces cas individuels constituent un tableau d’ensemble remarquable : l’année dernière, des appels frauduleux aux États-Unis auraient causé des dommages financiers totalisant environ 11 millions de dollars américains.

Aussi intéressant : Spoofing – c’est ainsi que vous vous protégez des arnaques

Protégez votre voix des tentatives d’imitation

Les cas correspondants en Allemagne ne sont pas encore connus. Mais ce n’est probablement qu’une question de temps avant que l’arnaque avec des voix générées par l’IA ne trouve également son chemin ici. Donc, si vous ne voulez pas devenir complice par inadvertance, vous devez être prudent, par exemple si vous recevez un appel d’un numéro inconnu ou masqué. Parce qu’un logiciel d’imitation vocale n’a besoin que de modèles très courts (par exemple un « bonjour, qui est-ce ? ») pour générer un imitateur réaliste. Les utilisateurs de TikTok and Co. qui laissent entendre leur voix dans des bobines ou des vidéos sont une cible pour les escrocs.



ttn-fr-35