Les experts de Nordea rappellent les signes avant-coureurs des arnaques à l’intelligence artificielle.

Les cybercriminels savent utiliser l’intelligence artificielle. Les escroqueries à l’intelligence artificielle ciblant les entreprises finlandaises pourraient devenir plus courantes dans un avenir proche. La plupart des photos

Nordea met en garde contre les fraudeurs utilisant l’intelligence artificielle. Dans son annonce, il raconte un cas survenu à Hong Kong au début de l’année, où un employé de l’administration financière d’une entreprise locale a été trompé grâce à l’intelligence artificielle pour transférer plus de 25 millions de dollars américains sur le compte des fraudeurs. .

Iltalehti a fait état de l’arnaque en février dernier.

– Malheureusement, les escroqueries de cette ampleur ne sont pas aussi inhabituelles qu’on pourrait le penser. Cependant, ce qui rend cette affaire inhabituelle, c’est que l’employé a été induit en erreur par une escroquerie dite « deep fake », selon l’expert en prévention de la fraude de Nordea. Annukka Multanen » déclare dans l’annonce.

Le contenu Deepfake créé avec l’intelligence artificielle a été utilisé dans l’arnaque d’une manière sans précédent. Une personne qui travaillait au service financier de l’entreprise a reçu une invitation par e-mail à participer à une réunion vidéo, au cours de laquelle elle a été rencontrée par le directeur financier de l’entreprise et d’autres employés – du moins c’est ce qu’il pensait.

L’employé a été amené à effectuer 15 virements bancaires vers cinq comptes bancaires différents à Hong Kong, et l’arnaque n’a été réalisée qu’une semaine plus tard.

L’enquête a révélé que les autres participants à la vidéoconférence avaient été créés par l’intelligence artificielle et non par de vraies personnes. Les escroqueries Deepfake combinent des images et des sons générés par l’intelligence artificielle, grâce auxquels pratiquement n’importe qui peut être amené à dire n’importe quoi avec une vidéo d’apparence authentique.

– L’intelligence artificielle est déjà utilisée dans des fraudes en Finlande, mais à une échelle bien moindre. L’utilisation courante est, par exemple, dans le marketing des escroqueries à l’investissement, explique Multanen.

Ces escroqueries ciblent les entreprises finlandaises.

Nina Luomanen, directrice des activités PME de Nordea, affirme dans le communiqué de presse de l’entreprise que la grande majorité des escroqueries commerciales en Finlande restent des escroqueries au PDG et aux factures.

Les escroqueries utilisent, par exemple, de fausses factures et des messages qui semblent provenir, par exemple, d’un employé ou d’un client de l’entreprise.

– Le signe le plus évident que tout ne va pas est le changement des informations de paiement ou du compte du destinataire en cours de traitement du dossier. Si cela se produit, nous recommandons que le changement soit confirmé via un autre canal de communication. Ne répondez pas aux e-mails, car le compte de messagerie pourrait avoir été piraté, prévient Luomanen.

Selon Luomanen, la contrefaçon massive ne constitue pas le problème le plus important pour les entreprises finlandaises – du moins pas encore. Cependant, la situation pourrait changer rapidement, car l’utilisation de l’intelligence artificielle attire les criminels. Cela permet la mise en œuvre d’escroqueries plus ciblées, de meilleure qualité et plus larges qu’auparavant.

Grâce à l’intelligence artificielle, les criminels peuvent mener des escroqueries plus ciblées et de meilleure qualité qu’auparavant et les montrer à un groupe plus large qu’auparavant.

– L’utilisation de la technologie de l’intelligence artificielle à des fins frauduleuses est étroitement surveillée au sein de la banque. Grâce aux deep fakes, les escroqueries traditionnelles au PDG et aux factures pourront devenir plus crédibles à l’avenir. Dans ce cas, les criminels ne doivent pas seulement s’appuyer sur la communication écrite, mais ils peuvent également utiliser des appels vocaux ou vidéo pour commettre une arnaque. En Finlande également, nous devons rester vigilants à ce sujet, déclare Luomanen dans le communiqué.

Un expert explique comment capturer la voix d’une personne en seulement trois secondes. Les conséquences peuvent être horribles.



ttn-fr-54