Europol met en garde contre un potentiel de fraude et de terrorisme via ChatGPT

L’autorité de police de l’UE, Europol, a examiné le populaire chatbot ChatGPT pour les scénarios de risque et met maintenant en garde contre le potentiel d’abus.

Dans une série d’ateliers, le laboratoire d’innovation d’Europol a créé une première analyse des menaces pour ChatGPT et a maintenant publié ses conclusions. Plusieurs dangers sont identifiés.

Europol enquête sur ChatGPT

Un rapport identifie plusieurs cas d’utilisation où des acteurs malveillants peuvent utiliser l’intelligence artificielle (IA) à des fins criminelles. Plus précisément, Europol s’est occupé de ChatGPT, qui est basé sur le « Large Language Model » (LLM) GPT. GPT, développé par OpenAI, est formé sur des milliards de points de données pour comprendre et générer du langage naturel. Non seulement ChatGPT peut fournir des réponses cohérentes et objectives à presque toutes les questions – même si elles sont incorrectes ou incomplètes. Avec la bonne invite, le chatbot est même capable d’écrire du code pour de nombreux langages de programmation courants.

OpenAI améliore constamment les mesures de sécurité pour empêcher les criminels d’abuser de ces capacités. Cependant, ils trouvent toujours de nouvelles façons de laisser ChatGPT produire des résultats de toute façon. Europol déclare: « Alors que les capacités des LLM (Large Language Models) comme ChatGPT sont activement améliorées, l’exploitation potentielle de ces types de systèmes d’IA par des criminels présente de sombres perspectives. »

Quel danger ChatGPT représente-t-il ?

Dans l’analyse de ChatGPT, les experts d’Europol ont identifié trois domaines dans lesquels le potentiel d’abus de l’IA est particulièrement préoccupant : la fraude, la désinformation et la cybercriminalité.

  • Fraude: Les escroqueries par hameçonnage sont un problème courant qui pourrait être aggravé par l’utilisation de ChatGPT. Bien qu’il existe des exceptions, la majorité des tentatives de phishing avec de faux e-mails et sites Web peuvent souvent être identifiées rapidement, notamment par les incohérences linguistiques. Selon l’analyse d’Europol, cependant, ChatGPT peut imiter le langage de groupes tels que des entreprises et ainsi rendre les faux contenus encore plus authentiques.
  • désinformation: La désinformation, c’est la propagande et les fake news. La production rapide de textes et de discours d’apparence authentique facilite encore plus la diffusion de la désinformation à grande échelle.
  • cybercriminalité: Dans l’analyse d’Europol, la cybercriminalité fait explicitement référence aux attaques de pirates informatiques classiques avec du code conçu de manière malveillante. En conséquence, ChatGPT peut écrire un code simple qui peut être utilisé comme base d’attaques même pour les criminels sans connaissance préalable. Dans le rapport détaillé, Europol explique également comment les acteurs peuvent contourner les mesures de sécurité de ChatGPT. L’IA peut reconnaître quand quelqu’un lui demande d’écrire du code malveillant, mais seulement s’il s’agit d’une commande cohérente. Si la commande est divisée en étapes individuelles, les précautions de sécurité peuvent être contournées.

Le rapport aborde également une autre façon dont ChatGPT peut être utilisé à des fins criminelles. Rendre les informations plus accessibles pourrait « simplifier les activités terroristes, telles que le financement du terrorisme et le partage de fichiers anonymes ».

Sources



ttn-fr-35