Le Royaume-Uni et les États-Unis, ainsi que des partenaires internationaux de 16 autres pays, ont publié de nouvelles lignes directrices pour le développement de systèmes sécurisés d’intelligence artificielle (IA).
« L’approche donne la priorité à l’appropriation des résultats de sécurité pour les clients, adopte une transparence et une responsabilité radicales et établit des structures organisationnelles où la conception sécurisée est une priorité absolue », a déclaré l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA). dit.
L’objectif est d’augmenter les niveaux de cybersécurité de l’IA et de contribuer à garantir que la technologie est conçue, développée et déployée de manière sécurisée, a indiqué le National Cyber Security Center (NCSC). ajoutée.
Les lignes directrices s’appuient également sur les recommandations du gouvernement américain en cours efforts Pour gérer les risques posés par l’IA en garantissant que les nouveaux outils sont testés de manière adéquate avant leur diffusion publique, des garde-fous sont en place pour lutter contre les préjudices sociétaux, tels que les préjugés et la discrimination, et les problèmes de confidentialité, et en mettant en place des méthodes robustes permettant aux consommateurs d’identifier l’IA. matière générée.
Les engagements exigent également que les entreprises s’engagent à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d’IA via un système de bug bounty afin qu’elles puissent être trouvées et corrigées rapidement.
Le dernières directives « Aider les développeurs à garantir que la cybersécurité est à la fois une condition préalable essentielle à la sécurité du système d’IA et une partie intégrante du processus de développement dès le début et tout au long, connue sous le nom d’approche » sécurisée dès la conception « », a déclaré le NCSC.
Cela englobe une conception sécurisée, un développement sécurisé, un déploiement sécurisé, ainsi qu’une exploitation et une maintenance sécurisées, couvrant tous les domaines importants du cycle de vie du développement du système d’IA, exigeant que les organisations modélisent les menaces pesant sur leurs systèmes et protègent leurs chaînes d’approvisionnement et leur infrastructure.
L’objectif, notent les agences, est également de lutter contre les attaques contradictoires ciblant les systèmes d’IA et d’apprentissage automatique (ML) qui visent à provoquer des comportements involontaires de diverses manières, notamment en affectant la classification d’un modèle, en permettant aux utilisateurs d’effectuer des actions non autorisées et en extrayant des informations sensibles.
« Il existe de nombreuses façons d’obtenir ces effets, telles que attaques par injection rapide dans le domaine des modèles de langage étendus (LLM), ou corrompre délibérément les données de formation ou les commentaires des utilisateurs (connu sous le nom d' »empoisonnement des données ») », a noté le NCSC.