À mesure que l’adoption d’outils d’IA générative, comme ChatGPT, continue de croître, le risque d’exposition des données augmente également. Selon le rapport « Emerging Tech : Top 4 Security Risks of GenAI » de Gartner, la confidentialité et la sécurité des données sont l’un des quatre principaux risques émergents au sein de l’IA générative. Un nouveau webinaire mettant en vedette un RSSI à plusieurs reprises Fortune 100 et le PDG de LayerX, une solution d’extension de navigateur, se penche sur ce risque critique.

Tout au long du webinaire, les intervenants expliqueront pourquoi la sécurité des données constitue un risque et exploreront la capacité des solutions DLP à s’en protéger, ou leur absence. Ensuite, ils délimiteront les capacités requises par les solutions DLP pour garantir que les entreprises bénéficient de la productivité que les applications GenAI ont à offrir sans compromettre la sécurité.

Les risques commerciaux et de sécurité des applications d’IA générative

Les risques de sécurité GenAI surviennent lorsque les employés insèrent des textes sensibles dans ces applications. Ces actions méritent un examen attentif, car les données insérées deviennent partie intégrante de l’ensemble d’entraînement de l’IA. Cela signifie que les algorithmes d’IA apprennent de ces données et les intègrent dans leurs algorithmes pour générer des réponses futures.

Ce comportement présente deux dangers principaux. Premièrement, le risque immédiat de fuite de données. Les informations sensibles peuvent être exposées dans une réponse générée par l’application à une requête d’un autre utilisateur. Imaginez un scénario dans lequel un employé colle du code propriétaire dans une IA générative à des fins d’analyse. Plus tard, un autre utilisateur pourrait recevoir cet extrait de code dans le cadre d’une réponse générée, compromettant ainsi sa confidentialité.

Deuxièmement, il existe un risque à plus long terme concernant la conservation, la conformité et la gouvernance des données. Même si les données ne sont pas immédiatement exposées, elles peuvent être stockées dans l’ensemble d’entraînement de l’IA pour une durée indéterminée. Cela soulève des questions sur le niveau de sécurité du stockage des données, sur qui y a accès et sur les mesures en place pour garantir qu’elles ne soient pas exposées à l’avenir.

Augmentation de 44 % de l’utilisation de GenAI

Il existe un certain nombre de types de données sensibles qui risquent d’être divulguées. Les principales fuites sont les fuites d’informations financières, de codes sources, de plans d’affaires et d’informations personnelles. Cela pourrait entraîner un préjudice irréparable à la stratégie commerciale, une perte de propriété intellectuelle interne, une violation de la confidentialité des tiers et une violation de la vie privée des clients, ce qui pourrait éventuellement conduire à une dégradation de la marque et à des implications juridiques.

Les données se rangent du côté de l’inquiétude. Les recherches menées par LayerX sur leurs propres données utilisateur montrent que l’utilisation par les employés des applications d’IA générative a augmenté de 44 % tout au long de 2023, avec 6 % des employés collant des données sensibles dans ces applications, soit 4 % sur une base hebdomadaire !

Là où les solutions DLP échouent

Traditionnellement, les solutions DLP étaient conçues pour protéger contre les fuites de données. Ces outils, devenus au fil des années la pierre angulaire des stratégies de cybersécurité, protègent les données sensibles contre les accès et transferts non autorisés. Les solutions DLP sont particulièrement efficaces lorsqu’il s’agit de fichiers de données tels que des documents, des feuilles de calcul ou des PDF. Ils peuvent surveiller le flux de ces fichiers sur un réseau et signaler ou bloquer toute tentative non autorisée de les déplacer ou de les partager.

Cependant, le paysage de la sécurité des données évolue, tout comme les méthodes de fuite de données. Un domaine dans lequel les solutions DLP traditionnelles échouent est celui du contrôle du collage de texte. Les données textuelles peuvent être copiées et collées sur différentes plateformes sans déclencher les mêmes protocoles de sécurité. Par conséquent, les solutions DLP traditionnelles ne sont pas conçues pour analyser ou bloquer le collage de texte sensible dans des applications d’IA générative.

De plus, les solutions CASB DLP, un sous-ensemble des technologies DLP, ont leurs propres limites. Ils ne sont généralement efficaces que pour les applications approuvées au sein du réseau d’une organisation. Cela signifie que si un employé devait coller du texte sensible dans une application d’IA non autorisée, le DLP du CASB ne détecterait ou n’empêcherait probablement pas cette action, laissant l’organisation vulnérable.

La solution : un DLP GenAI

La solution est une DLP IA générative ou une DLP Web. Generative AI DLP peut surveiller en permanence les actions de collage de texte sur diverses plates-formes et applications. Il utilise des algorithmes ML pour analyser le texte en temps réel, identifiant des modèles ou des mots-clés susceptibles d’indiquer des informations sensibles. Une fois ces données détectées, le système peut prendre des mesures immédiates telles que l’émission d’avertissements, le blocage de l’accès ou même l’interdiction totale de l’action de collage. Ce niveau de granularité dans la surveillance et la réponse est quelque chose que les solutions DLP traditionnelles ne peuvent pas offrir.

Les solutions Web DLP vont plus loin et peuvent identifier toutes les actions liées aux données vers et depuis des emplacements Web. Grâce à des analyses avancées, le système peut faire la différence entre les emplacements Web sûrs et non sécurisés, et même les appareils gérés et non gérés. Ce niveau de sophistication permet aux organisations de mieux protéger leurs données et de garantir qu’elles sont consultées et utilisées de manière sécurisée. Cela aide également les organisations à se conformer aux réglementations et aux normes de l’industrie.

Que dit Gartner à propos du DLP ? À quelle fréquence les employés visitent-ils les applications d’IA générative ? À quoi ressemble une solution GenAI DLP ? Découvrez les réponses et plus encore en inscription au webinaire, ici.

Vous avez trouvé cet article intéressant ? Suivez-nous sur Twitter et LinkedIn pour lire plus de contenu exclusif que nous publions.





ttn-fr-57