Récemment, le paysage de la cybersécurité a été confronté à une nouvelle réalité intimidante : la montée en puissance de l’IA générative malveillante, comme FraudGPT et WormGPT. Ces créations malveillantes, tapies dans les recoins sombres d’Internet, constituent une menace particulière pour le monde de la sécurité numérique. Dans cet article, nous examinerons la nature de la fraude par IA générative, analyserons les messages entourant ces créations et évaluerons leur impact potentiel sur la cybersécurité. S’il est crucial de rester vigilant, il est tout aussi important d’éviter une panique généralisée, car la situation, bien que déconcertante, n’est pas encore alarmante. Vous souhaitez savoir comment votre organisation peut se protéger contre les attaques génératives d’IA avec une solution avancée de sécurité de la messagerie ? Obtenez une démo IRONSCALE.
Rencontrez FraudGPT et WormGPT
FraudeGPT représente une IA générative malveillante basée sur un abonnement qui exploite des algorithmes sophistiqués d’apprentissage automatique pour générer du contenu trompeur. Contrairement aux modèles d’IA éthiques, FraudGPT ne connaît pas de limites, ce qui en fait une arme polyvalente pour une myriade d’objectifs néfastes. Il a la capacité de créer des courriels de spear phishing méticuleusement adaptés, des factures contrefaites, des articles de presse fabriqués, et bien plus encore – qui peuvent tous être exploités dans le cadre de cyberattaques, d’escroqueries en ligne, de manipulation de l’opinion publique et même de la prétendue création de « logiciels malveillants et indétectables ». campagnes de phishing.
VerGPT, en revanche, se présente comme le sinistre frère de FraudGPT dans le domaine de l’IA malveillante. Développé comme homologue non autorisé du ChatGPT d’OpenAI, WormGPT fonctionne sans garanties éthiques et peut répondre aux requêtes liées au piratage et à d’autres activités illicites. Bien que ses capacités puissent être quelque peu limitées par rapport aux derniers modèles d’IA, elle constitue un exemple frappant de la trajectoire évolutive de l’IA générative malveillante.
La posture des méchants GPT
Les développeurs et propagateurs de FraudGPT et WormGPT n’ont pas perdu de temps pour promouvoir leurs créations malveillantes. Ces outils basés sur l’IA sont commercialisés comme des « kits de démarrage pour les cyber-attaquants », offrant une suite de ressources moyennant des frais d’abonnement, rendant ainsi les outils avancés plus accessibles aux aspirants cybercriminels.
En y regardant de plus près, il apparaît que ces outils n’offrent pas beaucoup plus que ce qu’un cybercriminel pourrait obtenir des outils d’IA générative existants avec des solutions de contournement créatives pour les requêtes. Les raisons potentielles de ce phénomène peuvent provenir de l’utilisation d’architectures de modèles plus anciennes et de la nature opaque de leurs données de formation. Le créateur de WormGPT affirme que son modèle a été construit à l’aide d’un large éventail de sources de données, avec un accent particulier sur les données liées aux logiciels malveillants. Cependant, ils se sont abstenus de divulguer les ensembles de données spécifiques utilisés.
De même, le récit promotionnel entourant FraudGPT n’inspire guère confiance dans les performances du modèle linguistique (LM). Sur les forums obscurs du dark web, le créateur de FraudGPT le présente comme une technologie de pointe, affirmant que le LLM peut fabriquer des « logiciels malveillants indétectables » et identifier les sites Web susceptibles de subir des fraudes par carte de crédit. Cependant, au-delà de l’affirmation selon laquelle il s’agit d’une variante de GPT-3, le créateur fournit peu d’informations sur l’architecture du LLM et ne présente aucune preuve de malware indétectable, laissant place à de nombreuses spéculations.
Comment les acteurs malveillants exploiteront les outils GPT
Le déploiement inévitable d’outils basés sur GPT tels que FraudGPT et WormGPT reste une véritable préoccupation. Ces systèmes d’IA possèdent la capacité de produire du contenu très convaincant, ce qui les rend attrayants pour des activités allant de la création d’e-mails de phishing persuasifs à la contrainte des victimes dans des stratagèmes frauduleux et même à la génération de logiciels malveillants. Bien qu’il existe des outils de sécurité et des contre-mesures pour lutter contre ces nouvelles formes d’attaques, le défi continue de gagner en complexité.
Certaines applications potentielles des outils d’IA générative à des fins frauduleuses incluent :
- Campagnes de phishing améliorées : Ces outils peuvent automatiser la création d’e-mails de phishing hyper-personnalisés (spear phishing) dans plusieurs langues, augmentant ainsi les chances de succès. Néanmoins, leur efficacité à échapper à la détection par les systèmes avancés de sécurité de la messagerie et par les destinataires vigilants reste discutable.
- Collecte accélérée de renseignements Open Source (OSINT) : Les attaquants peuvent accélérer la phase de reconnaissance de leurs opérations en utilisant ces outils pour collecter des informations sur les cibles, notamment des informations personnelles, des préférences, des comportements et des données d’entreprise détaillées.
- Génération automatisée de logiciels malveillants : L’IA générative possède le potentiel déconcertant de générer du code malveillant, rationalisant ainsi le processus de création de logiciels malveillants, même pour les personnes manquant d’expertise technique approfondie. Cependant, même si ces outils peuvent générer du code, le résultat obtenu peut encore être rudimentaire, nécessitant des étapes supplémentaires pour réussir les cyberattaques.
L’impact militarisé de l’IA générative sur le paysage des menaces
L’émergence de FraudGPT, WormGPT et d’autres outils malveillants d’IA générative soulève indéniablement des signaux d’alarme au sein de la communauté de la cybersécurité. Il existe un potentiel de campagnes de phishing plus sophistiquées et d’augmentation du volume des attaques par IA générative. Les cybercriminels pourraient exploiter ces outils pour réduire les barrières à l’entrée dans la cybercriminalité, attirant ainsi les individus ayant des connaissances techniques limitées.
Il est toutefois impératif de ne pas paniquer face à ces menaces émergentes. FraudGPT et WormGPT, bien qu’intrigants, ne changent pas la donne dans le domaine de la cybercriminalité – du moins pas encore. Leurs limites, leur manque de sophistication et le fait que les modèles d’IA les plus avancés ne soient pas intégrés à ces outils les rendent loin d’être imperméables aux instruments plus avancés basés sur l’IA comme IRONSCALES, qui peuvent détecter de manière autonome les attaques de spear phishing générées par l’IA. Il convient de noter que malgré l’efficacité non vérifiée de FraudGPT et WormGPT, l’ingénierie sociale et le spear phishing précisément ciblé ont déjà démontré leur efficacité. Néanmoins, ces outils d’IA malveillants offrent aux cybercriminels une plus grande accessibilité et une plus grande facilité pour élaborer de telles campagnes de phishing.
À mesure que ces outils continuent d’évoluer et de gagner en popularité, les organisations doivent se préparer à une vague d’attaques hautement ciblées et personnalisées contre leur personnel.
Pas de panique, mais préparez-vous pour demain
L’avènement de la fraude par IA générative, incarnée par des outils comme FraudGPT et WormGPT, suscite en effet des inquiétudes dans le domaine de la cybersécurité. Néanmoins, cela n’est pas totalement inattendu et les fournisseurs de solutions de sécurité ont travaillé avec diligence pour relever ce défi. Même si ces outils présentent des défis nouveaux et redoutables, ils ne sont en aucun cas insurmontables. Le monde criminel en est encore aux premiers stades de l’adoption de ces outils, tandis que les fournisseurs de sécurité sont dans le jeu depuis bien plus longtemps. Des solutions de sécurité robustes basées sur l’IA, telles qu’IRONSCALES, existent déjà pour contrer les menaces de courrier électronique générées par l’IA avec une grande efficacité.
Pour garder une longueur d’avance sur l’évolution du paysage des menaces, les organisations devraient envisager d’investir dans des solutions avancées de sécurité de la messagerie qui offrent :
- Protection avancée contre les menaces en temps réel avec des capacités spécialisées pour se défendre contre les attaques d’ingénierie sociale telles que la compromission des e-mails professionnels (BEC), l’usurpation d’identité et la fraude aux factures.
- Tests automatisés de simulation de spear phishing pour offrir aux employés une formation personnalisée.
De plus, il est essentiel de rester informé des évolutions de l’IA générative et des tactiques employées par les acteurs malveillants utilisant ces technologies. La préparation et la vigilance sont essentielles pour atténuer les risques potentiels découlant de l’utilisation de l’IA générative dans la cybercriminalité.
Vous souhaitez savoir comment votre organisation peut se protéger contre les attaques génératives d’IA avec une solution avancée de sécurité de la messagerie ? Obtenez une démo IRONSCALE.
Note: Cet article a été rédigé de manière experte par Eyal Benishti, PDG d’IRONSCALES.