Des détails ont émergé concernant une vulnérabilité désormais corrigée dans Microsoft 365 Copilot qui pourrait permettre le vol d’informations utilisateur sensibles à l’aide d’une technique appelée contrebande ASCII.
« La contrebande ASCII est une nouvelle technique qui utilise des caractères Unicode spéciaux qui reflètent l’ASCII mais qui ne sont en réalité pas visibles dans l’interface utilisateur », explique le chercheur en sécurité Johann Rehberger. dit.
« Cela signifie qu’un attaquant peut avoir le [large language model] « Rendre, pour l’utilisateur, des données invisibles et les intégrer dans des hyperliens cliquables. Cette technique met en scène les données pour les exfiltrer ! »
L’attaque dans son ensemble combine un certain nombre de méthodes d’attaque pour les transformer en une chaîne d’exploitation fiable. Cela comprend les étapes suivantes :
- Déclencher une injection rapide via un contenu malveillant dissimulé dans un document partagé sur le chat
- Utilisation d’une charge utile d’injection rapide pour demander à Copilot de rechercher davantage d’e-mails et de documents
- Exploiter la contrebande ASCII pour inciter l’utilisateur à cliquer sur un lien pour exfiltrer des données précieuses vers un serveur tiers
Le résultat net de l’attaque est que les données sensibles présentes dans les e-mails, y compris les codes d’authentification multifacteur (MFA), pourraient être transmises à un serveur contrôlé par un adversaire. Microsoft a depuis résolu le problème à la suite d’une divulgation responsable en janvier 2024.
Ce développement intervient alors que des attaques de preuve de concept (PoC) ont été lancées démontré contre le système Copilot de Microsoft pour manipuler les réponses, exfiltrer des données privées et esquiver les protections de sécurité, soulignant une fois de plus la nécessité de surveiller les risques dans les outils d’intelligence artificielle (IA).
Les méthodes, détaillées par Zéitépermettent aux acteurs malveillants d’effectuer une génération augmentée par récupération (CHIFFON) Empoisonnement et injection de prompt indirecte conduisant à des attaques d’exécution de code à distance qui peuvent contrôler entièrement Microsoft Copilot et d’autres applications d’IA. Dans un scénario d’attaque hypothétique, un pirate externe doté de capacités d’exécution de code pourrait tromper Copilot en fournissant aux utilisateurs des pages de phishing.
L’une des attaques les plus novatrices est peut-être la possibilité de transformer l’IA en une machine de spear-phishing. La technique du red-teaming, surnommée LOLCopilotpermet à un attaquant ayant accès au compte de messagerie d’une victime d’envoyer des messages de phishing imitant le style des utilisateurs compromis.
Microsoft a également reconnu que les robots Copilot exposés publiquement, créés à l’aide de Microsoft Copilot Studio et dépourvus de toute protection d’authentification, pourraient être un moyen pour les acteurs malveillants d’extraire des informations sensibles, en supposant qu’ils aient une connaissance préalable du nom ou de l’URL de Copilot.
« Les entreprises doivent évaluer leur tolérance au risque et leur exposition pour éviter les fuites de données des copilotes (anciennement Power Virtual Agents) et permettre Prévention de la perte de données et d’autres contrôles de sécurité en conséquence pour contrôler la création et la publication des copilotes », Rehberger dit.