Les failles de sécurité dans les boîtes à outils ML populaires permettent des détournements de serveurs et une élévation des privilèges


11 novembre 2024Ravie LakshmananApprentissage automatique / Vulnérabilité

Les chercheurs en cybersécurité ont découvert près de deux douzaines de failles de sécurité couvrant 15 projets open source différents liés à l’apprentissage automatique (ML).

Il s’agit notamment de vulnérabilités découvertes à la fois côté serveur et côté client, a déclaré la société de sécurité de la chaîne d’approvisionnement logicielle JFrog dans une analyse publiée la semaine dernière.

Les faiblesses côté serveur « permettent aux attaquants de détourner des serveurs importants de l’organisation, tels que les registres de modèles ML, les bases de données ML et les pipelines ML », précise-t-on. dit.

Les vulnérabilités, découvertes dans Weave, ZenML, Deep Lake, Vanna.AI et Mage AI, ont été divisées en sous-catégories plus larges qui permettent de détourner à distance les registres de modèles, les cadres de bases de données ML et de prendre en charge les pipelines ML.

Cybersécurité

Une brève description des défauts identifiés est ci-dessous –

  • CVE-2024-7340 (score CVSS : 8,8) – Une vulnérabilité de traversée de répertoire dans la boîte à outils Weave ML qui permet de lire des fichiers sur l’ensemble du système de fichiers, permettant ainsi à un utilisateur authentifié peu privilégié d’élever ses privilèges vers un rôle d’administrateur en lisant un fichier nommé « api_keys. ibd » (abordé dans version 0.50.8)
  • Une vulnérabilité de contrôle d’accès inapproprié dans le framework ZenML MLOps qui permet à un utilisateur ayant accès à un serveur ZenML géré d’élever ses privilèges de spectateur à des privilèges d’administrateur complets, accordant à l’attaquant la possibilité de modifier ou de lire le magasin secret (aucun identifiant CVE)
  • CVE-2024-6507 (score CVSS : 8,1) – Une vulnérabilité d’injection de commandes dans la base de données orientée IA Deep Lake qui permet aux attaquants d’injecter des commandes système lors du téléchargement d’un ensemble de données Kaggle distant en raison d’un manque de nettoyage approprié des entrées (abordé dans version 3.9.11)
  • CVE-2024-5565 (score CVSS : 8,1) – Une vulnérabilité d’injection rapide dans la bibliothèque Vanna.AI qui pourrait être exploitée pour réaliser l’exécution de code à distance sur l’hôte sous-jacent
  • CVE-2024-45187 (score CVSS : 7,1) – Une vulnérabilité d’attribution de privilèges incorrecte qui permet aux utilisateurs invités du framework Mage AI d’exécuter à distance du code arbitraire via le serveur de terminal Mage AI en raison du fait qu’ils se sont vu attribuer des privilèges élevés et restent actifs pendant une période par défaut. de 30 jours malgré la suppression
  • CVE-2024-45188, CVE-2024-45189et CVE-2024-45190 (Scores CVSS : 6,5) – Vulnérabilités de traversée de chemins multiples dans Mage AI qui permettent aux utilisateurs distants dotés du rôle « Viewer » de lire des fichiers texte arbitraires à partir du serveur Mage via des requêtes « Contenu de fichier », « Contenu Git » et « Interaction avec pipeline ». , respectivement

« Étant donné que les pipelines MLOps peuvent avoir accès aux ensembles de données ML, à la formation de modèles ML et à la publication de modèles ML de l’organisation, l’exploitation d’un pipeline ML peut conduire à une violation extrêmement grave », a déclaré JFrog.

Cybersécurité

« Chacune des attaques mentionnées dans ce blog (porte dérobée du modèle ML, empoisonnement des données ML, etc.) peut être effectuée par l’attaquant, en fonction de l’accès du pipeline MLOps à ces ressources.

La divulgation intervient plus de deux mois après que la société a découvert plus de 20 vulnérabilités qui pourraient être exploitées pour cibler les plateformes MLOps.

Cela fait également suite à la sortie d’un cadre défensif nommé Mante qui exploite l’injection rapide comme moyen de contrer les cyberattaques. Grands modèles de langage (LLM) avec une efficacité supérieure à 95 %.

« Lorsqu’il détecte une cyberattaque automatisée, Mantis intègre des données soigneusement conçues dans les réponses du système, ce qui amène le LLM de l’attaquant à perturber ses propres opérations (défense passive) ou même à compromettre la machine de l’attaquant (défense active) », a déclaré un groupe d’universitaires de George Mason. Université dit.

« En déployant des services leurres délibérément vulnérables pour attirer l’attaquant et en utilisant des injections rapides dynamiques pour le LLM de l’attaquant, Mantis peut pirater l’attaquant de manière autonome. »

Vous avez trouvé cet article intéressant ? Suivez-nous sur Gazouillement et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57