Comment l’IA générative peut duper les protocoles d’authentification SaaS – et des moyens efficaces de prévenir d’autres risques clés liés à l’IA dans le SaaS


Les équipes de sécurité et informatiques sont régulièrement obligées d’adopter des logiciels avant de comprendre pleinement les risques de sécurité. Et les outils d’IA ne font pas exception.

Les employés et les chefs d’entreprise affluent vers les logiciels d’IA générative et les programmes similaires, souvent inconscients des principales vulnérabilités de sécurité SaaS qu’ils introduisent dans l’entreprise. Un février 2023 enquête sur l’IA générative auprès de 1 000 cadres a révélé que 49 % des personnes interrogées utilisent ChatGPT maintenant, et 30 % prévoient d’exploiter bientôt l’outil d’IA générative omniprésent. Quatre-vingt-dix-neuf pour cent de ceux qui utilisent ChatGPT ont revendiqué une certaine forme d’économies, et 25 % ont attesté avoir réduit leurs dépenses de 75 000 $ ou plus. Comme les chercheurs ont mené cette enquête à peine trois mois après la disponibilité générale de ChatGPT, l’utilisation actuelle de ChatGPT et des outils d’IA est sans aucun doute plus élevée.

Les équipes de sécurité et de gestion des risques sont déjà débordées pour protéger leur parc SaaS (qui est maintenant devenu le système d’exploitation de l’entreprise) contre les vulnérabilités courantes telles que les erreurs de configuration et les utilisateurs trop autorisés. Cela laisse peu de bande passante pour évaluer le paysage des menaces des outils d’IA, les outils d’IA non autorisés actuellement utilisés et les implications pour la sécurité SaaS.

Avec les menaces émergentes à l’extérieur et à l’intérieur des organisations, les RSSI et leurs équipes doivent comprendre les risques les plus pertinents des outils d’IA pour les systèmes SaaS – et comment les atténuer.

1 – Les acteurs de la menace peuvent exploiter l’IA générative pour duper les protocoles d’authentification SaaS

Alors que des employés ambitieux conçoivent des outils d’IA pour les aider à accomplir plus avec moins, les cybercriminels font de même. L’utilisation de l’IA générative avec une intention malveillante est tout simplement inévitable, et c’est déjà possible.

La capacité de l’IA à se faire passer pour des humains extrêmement bien rend les protocoles d’authentification SaaS faibles particulièrement vulnérables au piratage. Selon Techopédia, les pirates peuvent utiliser l’IA générative à mauvais escient pour deviner les mots de passe, craquer les CAPTCHA et créer des logiciels malveillants plus puissants. Bien que ces méthodes puissent sembler limitées dans leur portée d’attaque, les Janvier 2023 Faille de sécurité CircleCI a été attribué à l’ordinateur portable d’un seul ingénieur infecté par un logiciel malveillant.

De même, trois universitaires renommés en technologie ont récemment posé une hypothèse plausible pour l’IA générative exécutant une attaque de phishing :

« Un pirate utilise ChatGPT pour générer un message de harponnage personnalisé basé sur les supports marketing de votre entreprise et les messages de phishing qui ont réussi dans le passé. Il réussit à tromper les personnes bien formées à la sensibilisation aux e-mails, car il ne semble pas comme les messages qu’ils ont été entraînés à détecter. »

Les acteurs malveillants éviteront le point d’entrée le plus fortifié – généralement la plate-forme SaaS elle-même – et cibleront à la place des portes latérales plus vulnérables. Ils ne s’embêteront pas avec le pêne dormant et le chien de garde situés près de la porte d’entrée lorsqu’ils pourront se faufiler vers les portes-fenêtres non verrouillées.

S’appuyer uniquement sur l’authentification pour assurer la sécurité des données SaaS n’est pas une option viable. Au-delà de la mise en œuvre de l’authentification multifacteur (MFA) et des clés de sécurité physiques, les équipes de sécurité et de gestion des risques ont besoin d’une visibilité et d’une surveillance continue pour l’ensemble du périmètre SaaS, ainsi que d’alertes automatisées en cas d’activité de connexion suspecte.

Ces informations sont nécessaires non seulement pour les activités d’IA générative des cybercriminels, mais également pour les connexions des outils d’IA des employés aux plateformes SaaS.

2 — Les employés connectent des outils d’IA non autorisés aux plateformes SaaS sans tenir compte des risques

Les employés s’appuient désormais sur des outils d’IA non autorisés pour faciliter leur travail. Après tout, qui veut travailler plus dur lorsque les outils d’IA augmentent l’efficacité et l’efficience ? Comme toute forme de informatique fantômel’adoption des outils d’IA par les employés est motivée par les meilleures intentions.

Par exemple, un employé est convaincu qu’il pourrait mieux gérer son temps et ses tâches, mais l’effort de surveiller et d’analyser sa gestion des tâches et sa participation aux réunions semble être une grande entreprise. L’IA peut effectuer facilement cette surveillance et cette analyse et fournir des recommandations presque instantanément, donnant à l’employé l’augmentation de productivité dont il a besoin en une fraction de temps. L’inscription à un assistant de planification IA, du point de vue de l’utilisateur final, est aussi simple et (apparemment) anodine que :

  • S’inscrire pour un essai gratuit ou s’inscrire avec une carte de crédit
  • Accepter les demandes d’autorisation de lecture/écriture de l’outil d’intelligence artificielle
  • Connecter l’assistant de planification AI à leurs comptes d’entreprise Gmail, Google Drive et Slack

Cependant, ce processus crée des conduits invisibles vers les données les plus sensibles d’une organisation. Ces connexions AI-SaaS héritent des paramètres d’autorisation de l’utilisateur, permettant au pirate qui peut compromettre avec succès l’outil AI de se déplacer silencieusement et latéralement à travers les systèmes SaaS autorisés. Un pirate informatique peut accéder aux données et les exfiltrer jusqu’à ce qu’une activité suspecte soit remarquée et traitée, ce qui peut durer des semaines ou des années.

Les outils d’intelligence artificielle, comme la plupart des applications SaaS, utilisent Jetons d’accès OAuth pour les connexions continues aux plateformes SaaS. Une fois l’autorisation terminée, le jeton de l’assistant de planification AI maintiendra une communication cohérente basée sur l’API avec les comptes Gmail, Google Drive et Slack, le tout sans obliger l’utilisateur à se connecter ou à s’authentifier à intervalles réguliers.. L’acteur menaçant qui peut capitaliser sur ce jeton OAuth est tombé sur l’équivalent SaaS des clés de rechange « cachées » sous le paillasson.

Outil IA
Figure 1 : Illustration d’un outil d’intelligence artificielle établissant une connexion par jeton OAuth avec une plate-forme SaaS majeure. Crédit : AppOmni

Les équipes de sécurité et de gestion des risques manquent souvent des outils de sécurité SaaS pour surveiller ou contrôler un tel risque de surface d’attaque. Les outils hérités tels que les courtiers de sécurité d’accès au cloud (CASB) et les passerelles Web sécurisées (SWG) ne détectent ni n’alertent sur la connectivité AI-SaaS.

Pourtant, ces connexions AI-SaaS ne sont pas le seul moyen par lequel les employés peuvent involontairement exposer des données sensibles au monde extérieur.

3 – Les informations sensibles partagées avec les outils d’IA générative sont susceptibles de fuites

Les données que les employés soumettent aux outils d’IA générative – souvent dans le but d’accélérer le travail et d’améliorer sa qualité – peuvent se retrouver entre les mains du fournisseur d’IA lui-même, des concurrents d’une organisation ou du grand public.

Étant donné que la plupart des outils d’IA générative sont gratuits et existent en dehors de la pile technologique de l’organisation, les professionnels de la sécurité et des risques n’ont aucune surveillance ni aucun contrôle de sécurité pour ces outils. Il s’agit d’une préoccupation croissante parmi les entreprises, et des fuites de données d’IA génératives se sont déjà produites.

Un incident de mars activé par inadvertance Les utilisateurs de ChatGPT pour voir les titres et les historiques de chat des autres utilisateurs dans la barre latérale du site Web. Des inquiétudes ont surgi non seulement pour les fuites d’informations organisationnelles sensibles, mais aussi pour la révélation et la compromission de l’identité des utilisateurs. OpenAI, les développeurs de ChatGPT, ont annoncé la possibilité pour les utilisateurs de désactiver l’historique des discussions. En théorie, cette option empêche ChatGPT de renvoyer des données à OpenAI pour l’amélioration du produit, mais elle oblige les employés à gérer les paramètres de conservation des données. Même avec ce paramètre activé, OpenAI conserve les conversations pendant 30 jours et exerce le droit de les examiner « pour abus » avant leur expiration.

Ce bogue et les petits caractères de conservation des données ne sont pas passés inaperçus. En mai, Apple a interdit aux employés d’utiliser ChatGPT par crainte de fuites de données confidentielles. Alors que le géant de la technologie a adopté cette position en construisant ses propres outils d’IA générative, il a rejoint des entreprises telles qu’Amazon, Verizon et JPMorgan Chase dans l’interdiction. Apple a également demandé à ses développeurs d’éviter GitHub Co-pilot, propriété du principal concurrent Microsoft, pour automatiser le code.

Les cas d’utilisation courants de l’IA générative sont remplis de risques de fuite de données. Prenons l’exemple d’un chef de produit qui demande à ChatGPT de rendre le message d’un document de feuille de route de produit plus convaincant. Cette feuille de route produit contient presque certainement des informations sur les produits et des plans jamais destinés à la consommation publique, sans parler des regards indiscrets d’un concurrent. Un bogue ChatGPT similaire, que l’équipe informatique d’une organisation n’a pas la capacité de faire remonter ou de corriger, pourrait entraîner une grave exposition des données.

L’IA générative autonome ne crée pas de risque de sécurité SaaS. Mais ce qui est isolé aujourd’hui est connecté demain. Les employés ambitieux chercheront naturellement à étendre l’utilité des outils d’IA générative non autorisés en les intégrant dans des applications SaaS. Actuellement, Intégration Slack de ChatGPT demande plus de travail que la connexion Slack moyenne, mais ce n’est pas une barre extrêmement haute pour un employé avisé et motivé. L’intégration utilise des jetons OAuth exactement comme l’exemple d’assistant de planification IA décrit ci-dessus, exposant une organisation aux mêmes risques.

Comment les organisations peuvent protéger leurs environnements SaaS contre les risques importants liés aux outils d’IA

Les organisations ont besoin de garde-corps en place pour la gouvernance des données des outils d’IA, en particulier pour leurs environnements SaaS. Cela nécessite des outils de sécurité SaaS complets et une diplomatie interfonctionnelle proactive.

Les employés utilisent des outils d’IA non autorisés en grande partie en raison des limites de la pile technologique approuvée. Le désir d’augmenter la productivité et d’augmenter la qualité est une vertu, pas un vice. Il existe un besoin non satisfait, et les RSSI et leurs équipes doivent approcher les employés avec une attitude de collaboration plutôt que de condamnation.

Des conversations de bonne foi avec les dirigeants et les utilisateurs finaux concernant leurs demandes d’outils d’IA sont essentielles pour instaurer la confiance et la bonne volonté. Dans le même temps, les RSSI doivent faire part de préoccupations légitimes en matière de sécurité et des ramifications potentielles d’un comportement à risque en matière d’IA. Les responsables de la sécurité devraient se considérer comme des comptables qui expliquent les meilleures façons de travailler dans le cadre du code des impôts plutôt que comme des auditeurs de l’IRS perçus comme des exécutants indifférents à tout ce qui dépasse la conformité. Qu’il s’agisse de mettre en place des paramètres de sécurité appropriés pour les outils d’IA souhaités ou de rechercher des alternatives viables, les RSSI les plus performants s’efforcent d’aider les employés à maximiser leur productivité.

Comprendre et traiter pleinement les risques des outils d’IA nécessite une gestion complète et robuste de la posture de sécurité SaaS (SSPM) solution. SSPM fournit aux praticiens de la sécurité et des risques les informations et la visibilité dont ils ont besoin pour naviguer dans l’état en constante évolution des risques SaaS.

Pour améliorer la force de l’authentification, les équipes de sécurité peuvent utiliser SSPM pour appliquer la MFA dans toutes les applications SaaS du domaine et surveiller la dérive de la configuration. SSPM permet aux équipes de sécurité et aux propriétaires d’applications SaaS d’appliquer les meilleures pratiques sans étudier les subtilités de chaque paramètre d’application SaaS et d’outil d’IA.

La capacité à répertorier les outils d’IA non autorisés et approuvés connectés à l’écosystème SaaS révélera les risques les plus urgents à investiguer. La surveillance continue alerte automatiquement les équipes de sécurité et de gestion des risques lorsque de nouvelles connexions IA sont établies. Cette visibilité joue un rôle important dans la réduction de la surface d’attaque et la prise de mesures lorsqu’un outil d’IA non autorisé, non sécurisé et/ou surautorisé fait surface dans l’écosystème SaaS.

La dépendance aux outils d’IA continuera presque certainement à se répandre rapidement. Les interdictions pures et simples ne sont jamais infaillibles. Au lieu de cela, un mélange pragmatique de responsables de la sécurité partageant l’objectif de leurs pairs d’augmenter la productivité et de réduire les tâches répétitives, associé à la bonne solution SSPM est la meilleure approche pour réduire considérablement l’exposition des données SaaS ou le risque de violation.

Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57