Le NIST met en garde contre les risques de sécurité et de confidentialité liés au déploiement rapide du système d’IA


08 janvier 2024RédactionIntelligence artificielle / Cybersécurité

L’Institut national américain des normes et technologies (NIST) attire l’attention sur les défis en matière de confidentialité et de sécurité qui résultent du déploiement croissant de systèmes d’intelligence artificielle (IA) ces dernières années.

« Ces défis en matière de sécurité et de confidentialité incluent le potentiel de manipulation contradictoire des données de formation, l’exploitation contradictoire des vulnérabilités des modèles pour nuire aux performances du système d’IA, et même des manipulations malveillantes, des modifications ou une simple interaction avec des modèles pour exfiltrer des informations sensibles sur les personnes représentées dans les données, sur le modèle lui-même, ou sur les données exclusives de l’entreprise, » NIST dit.

Alors que les systèmes d’IA s’intègrent rapidement aux services en ligne, en partie grâce à l’émergence de systèmes d’IA génératifs comme OpenAI ChatGPT et Google Bard, les modèles qui alimentent ces technologies sont confrontés à un certain nombre de menaces à différentes étapes des opérations d’apprentissage automatique.

La cyber-sécurité

Il s’agit notamment de données de formation corrompues, de failles de sécurité dans les composants logiciels, d’empoisonnement des modèles de données, de faiblesses de la chaîne d’approvisionnement et de violations de la vie privée résultant d’attaques par injection rapide.

« Pour la plupart, les développeurs de logiciels ont besoin que davantage de personnes utilisent leur produit afin qu’il puisse s’améliorer avec l’exposition », a déclaré Apostol Vassilev, informaticien du NIST. « Mais rien ne garantit que l’exposition sera bonne. Un chatbot peut diffuser des informations erronées ou toxiques lorsqu’il y est invité dans un langage soigneusement conçu. »

Sécurité et confidentialité

Les attaques, qui peuvent avoir des impacts significatifs sur la disponibilité, l’intégrité et la confidentialité, sont globalement classées comme suit :

  • Attaques d’évasion, qui visent à générer des résultats contradictoires après le déploiement d’un modèle
  • Attaques d’empoisonnement, qui ciblent la phase de formation de l’algorithme en introduisant des données corrompues
  • Attaques de confidentialité, qui visent à glaner des informations sensibles sur le système ou les données sur lesquelles il a été formé en posant des questions qui contournent les garde-fous existants
  • Attaques abusives, qui visent à compromettre des sources d’informations légitimes, telles qu’une page Web contenant des informations incorrectes, afin de réutiliser l’utilisation prévue du système.

De telles attaques, selon le NIST, peuvent être menées par des acteurs malveillants possédant une connaissance complète (boîte blanche), une connaissance minimale (boîte noire) ou une compréhension partielle de certains aspects du système d’IA (boîte grise).

La cyber-sécurité

L’agence a en outre souligné le manque de mesures d’atténuation robustes pour contrer ces risques, exhortant la communauté technologique au sens large à « proposer de meilleures défenses ».

Ce développement intervient plus d’un mois après que le Royaume-Uni, les États-Unis et des partenaires internationaux de 16 autres pays ont publié des lignes directrices pour le développement de systèmes sécurisés d’intelligence artificielle (IA).

« Malgré les progrès significatifs réalisés par l’IA et l’apprentissage automatique, ces technologies sont vulnérables aux attaques qui peuvent provoquer des pannes spectaculaires aux conséquences désastreuses », a déclaré Vassilev. « Il existe des problèmes théoriques liés à la sécurisation des algorithmes d’IA qui n’ont tout simplement pas encore été résolus. Si quelqu’un dit le contraire, il vend de l’huile de serpent. »

Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57