‘Maman! Aide! Pouvez-vous transférer de l’argent rapidement ?


Jennifer DeStefano vient de garer sa voiture lorsque son téléphone sonne. Nous sommes un vendredi après-midi de janvier à Scottsdale, en Arizona. Alors que DeStefano sort de la voiture, elle regarde l’écran. Un numéro inconnu. Elle téléphone à sa fille Briana, quinze ans, qui s’entraîne pour une course de ski dans les montagnes au nord de Scottsdale. DeStefano met son téléphone sur haut-parleur.

« Maman ! » dit Briana. « Quelque chose de terrible est arrivé ! »
« Qu’avez-vous fait? Que se passe-t-il? »

À ce moment-là, une voix masculine grave retentit.

« Poser! Retournez ! »
« Attendez, attendez », dit DeStefano. « Qu’est-ce qu’il y a?! »

« Écoute. J’ai votre fille », dit l’homme. Il exige que DeStefano transfère immédiatement 50 000 $. « Sinon, je bourrerai votre fille de drogue et je la jetterai de l’autre côté de la frontière mexicaine. »

DeStefano éteint le haut-parleur de son téléphone. Elle regarde autour du parking avec panique et crie à l’aide. Les passants se précipitent. L’un d’eux appelle le numéro d’urgence 911.

L’employée dit à DeStefano qu’elle est probablement victime d’un « IAarnaque‘. Quelque chose qui, selon l’employé du centre d’urgence, se produit de plus en plus souvent ces derniers temps.

DeStefano n’est rassurée que lorsque, au téléphone d’un passant, elle téléphone avec son mari, qui est avec sa fille. Elle se déconnecte de l’escroc. Elle ne transfère jamais l’argent.

« La voix de ma fille était si réelle. Ce n’était pas un enregistrement. Non, c’était une vraie conversation », dit-elle lors d’une conversation téléphonique avec CNRC. « Elle a pleuré comme ma fille pleurerait. »

Cloner la voix avec une application

Jennifer DeStefano est l’une des nombreuses victimes américaines de clonage de voix, la nouvelle forme d’arnaque en ligne. Les criminels imitent une voix grâce à l’intelligence artificielle (IA), puis utilisent cette voix pour encourager un ami ou un membre de la famille à transférer de l’argent. Il n’existe pas de chiffres précis, mais aux États-Unis, le nombre d’histoires de victimes de clonage vocal augmente rapidement. Aux Pays-Bas, rapporte la police, il n’y a pas encore de cas connu.

C’est une question de temps. En raison de l’évolution rapide de la technologie de l’IA, le clonage des voix devient rapidement plus facile et moins cher. La société audio américaine ElevenLabs – l’une des pionnières de cette technologie – affirme qu’il suffit d’une minute d’enregistrement pour réaliser un clone. Depuis la semaine dernière, cela est possible dans vingt-huit langues, dont le néerlandais.

https://twitter.com/StijnBz/status/1694307778955735205

Le clonage vocal peut avoir d’excellentes applications, affirment les entreprises qui s’y spécialisent. Pensez aux touristes qui peuvent se faire comprendre partout en vacances, avec leur propre voix. Des patients SLA qui peuvent à nouveau utiliser leur voix. Les voix originales de personnages historiques pouvant être utilisées dans des jeux, des films ou des livres audio.

Mais le clonage vocal comporte également d’énormes risques. Presque immédiatement après le lancement de l’application ElevenLabs, faux audio en ligne dans lequel l’actrice Emma Watson a lu Mon Kampf. Le service de streaming Spotify a pour tâche quotidienne de supprimer les chansons des musiciens dont les voix ont été copiées sans autorisation. Les opposants à Joe Biden comme à Donald Trump réalisent de fausses vidéos convaincantes dans lesquelles ils mettent des mots dans la bouche des politiciens américains. Et grâce à la technologie, les cybercriminels mettent la main sur une nouvelle arme très convaincante pour extorquer de l’argent aux citoyens.

« Nous vivons à une époque où on ne peut pas faire confiance aux messages, aux vidéos et maintenant aux voix. Même de la part des personnes les plus proches de vous », explique Jennifer DeStefano. « Ne réfléchissez pas : cela ne m’arrivera pas. »

« Fraude à un ami dans le besoin »

La cantine de la préfecture de police d’Amsterdam, mi-août. Manon den Dunnen, spécialiste stratégique numérique à la police, lève sa tasse de café vide de la table. «J’ai cette tasse. Je peux l’attraper. Je peux en boire. Donc il existe », dit-elle. « C’est ainsi que fonctionne notre cerveau. Nous faisons confiance à ce que nous pouvons observer.

C’est pourquoi Den Dunnen est très préoccupé par les conséquences du clonage de la voix. Notre communication via le téléphone ou l’écran d’ordinateur passe à travers un « filtre numérique, qui détermine ce que vous voyez et entendez », explique Den Dunnen. « Lorsque vous appelez, vous n’avez en réalité aucun contact direct avec qui que ce soit. Vous n’êtes pas face à lui, vous devez donc réaliser que ce que vous entendez a peut-être été manipulé. C’est très difficile à comprendre.

Den Dunnen connaît les histoires venues des États-Unis, comme celle de Jennifer DeStefano. La fraude par clonage vocal devrait bientôt faire également des victimes aux Pays-Bas. Surtout maintenant que le logiciel est également disponible dans une application prête à l’emploi en néerlandais.

Les cybercriminels disposent d’une nouvelle arme très convaincante pour extorquer de l’argent aux citoyens

Il s’agit ensuite de ce que la police appelle une «fraude entre amis», dans laquelle quelqu’un se fait passer pour une soi-disant connaissance et demande que de l’argent lui soit transféré. Mais Den Dunnen s’attend également à une augmentation des « fraudes au PDG ». Dans cette forme d’escroquerie, des dirigeants sont usurpés et les entreprises sont escroquées à hauteur de sommes parfois énormes. Les cybercriminels combinent différentes techniques : ils s’introduisent dans le courrier électronique de quelqu’un, puis appellent leurs collègues avec une voix clonée.

En janvier 2020, une banque des Émirats arabes unis a perdu 35 millions de dollars après qu’un employé de Hong Kong ait transféré d’importantes sommes sur différents comptes. Il pensait que son patron, qui l’aurait appelé et lui aurait également envoyé des e-mails, lui avait dit de le faire. Ce braquage de banque est, à notre connaissance, le plus grand système à ce jour où le clonage vocal a été utilisé.

«Cela devient tellement plus facile», déclare Den Dunnen. « Et quand je pense aux victimes et que je vois combien cela coûtera en termes de capacité policière supplémentaire, je suis sérieusement inquiet. »

‘Téméraire’

Que peut-on y faire ? Jusqu’à ce que les gouvernements nationaux adoptent une bonne législation sur l’IA, les sociétés de clonage vocal peuvent faire ce qu’elles veulent. Même si les entreprises elles-mêmes affirment faire tout ce qui est en leur pouvoir pour empêcher une utilisation abusive de leur technologie.

Après des critiques sur la première version de l’application, ElevenLabs a décidé de placer son logiciel derrière un paywall, dans l’espoir de dissuader les fraudeurs (un abonnement coûte 5 dollars par mois). La société a également publié un outils que n’importe qui peut détecter si l’audio provient d’ElevenLabs. Selon l’entreprise, ces mesures devraient contribuer à créer « un paysage médiatique sûr ».

Den Dunnen réagit avec scepticisme lorsqu’elle en entend parler. Les startups ne devraient pas du tout commercialiser leurs logiciels si l’on peut en abuser à ce point, dit-elle. «Ces entreprises laissent d’abord les gens expérimenter et n’adaptent leurs produits qu’après que les incidents ont été largement rapportés dans la presse», explique Den Dunnen. « Alors je pense : pensez aux victimes. C’est vraiment imprudent. »

Illustration Bois Sommerdijk

Ainsi, jusqu’à ce qu’une bonne législation soit mise en place, les entreprises et les citoyens doivent s’armer contre les fraudeurs. En mai, le Sénat américain a appelé les dirigeants des six plus grandes banques américaines à agir. Entre autres choses, en achetant un logiciel spécial capable de reconnaître les voix.

Selon Manon den Dunnen, ce n’est pas la solution. Ces systèmes de vote ne sélectionnent pas toujours les clones vocaux de l’IA, par exemple le fisc australien expérimenté. Elle préconise des mesures de sécurité supplémentaires – comme l’authentification à deux facteurs – « afin que les systèmes ne soient pas uniquement accessibles avec des données biométriques », explique Den Dunnen.

Elle espère surtout que les managers aborderont le sujet sur le lieu de travail. Et passez de bons accords les uns avec les autres. Pour que tout le monde sur le lieu de travail sache quelles questions de contrôle poser si le patron lui demande par téléphone ou par e-mail de transférer de l’argent.

Et que pouvez-vous faire en tant que citoyen si votre enfant appelle et a soudainement besoin d’argent ? Aux Pays-Bas, chaque famille doit-elle se mettre d’accord sur un mot de code, comme par exemple le Fraudehelpdesk récemment recommandé? « Ce n’est pas une bonne idée, car un mot de code est également facile à déchiffrer », explique Den Dunnen. « Posez plutôt quelques questions informelles. De ce dont vous avez discuté la dernière fois que vous vous êtes vus. Parlez-en entre vous. Cela semble très étrange maintenant, mais j’espère que nous trouverons tous cela normal.





ttn-fr-33