Il y a eu beaucoup de battage médiatique récemment sur l’IA, mais cela ne signifie pas que les robots sont là pour nous remplacer. Cet article remet les pendules à l’heure et explique comment les entreprises devraient aborder l’IA.
De la réflexion sur les voitures autonomes à la crainte des robots IA qui pourraient détruire le monde, il y a eu beaucoup de battage médiatique sur l’IA ces dernières années. L’IA a capturé notre imagination, nos rêves et parfois nos cauchemars. Cependant, la réalité est que l’IA est actuellement beaucoup moins avancée que ce que nous avions prévu. Les voitures autonomes, par exemple, souvent considérées comme l’illustration de l’avenir illimité de l’IA, représentent un cas d’utilisation restreint et ne sont pas encore une application courante dans tous les secteurs des transports.
Dans cet article, nous démystifions l’IA, fournissons des outils aux entreprises qui s’approchent de l’IA et partageons des informations pour aider les parties prenantes à se renseigner.
Terminologie de l’IA démystifiée
IA contre ML
AI (Intelligence Artificielle) et ML (Machine Learning) sont des termes souvent utilisés de manière interchangeable, mais ils représentent des concepts différents. L’IA vise à créer de l’intelligence, c’est-à-dire des capacités cognitives et la capacité de réussir le test de Turing. Cela fonctionne en prenant ce qu’il a appris et en l’élevant au niveau supérieur. L’objectif de l’utilisation de l’IA est de reproduire des actions humaines, comme la création d’un robot de nettoyage qui fonctionne de la même manière qu’un nettoyeur humain.
Le ML est un sous-ensemble de l’IA. Il comprend des modèles mathématiques et ses capacités reposent sur la combinaison de machines et de données. ML fonctionne en tirant les leçons des événements, puis en hiérarchisant ces leçons. En conséquence, le ML peut effectuer des actions que les humains ne peuvent pas effectuer, comme parcourir de vastes quantités de données, déterminer des modèles, prédire des probabilités, etc.
IA étroite ou générale
Le concept d’IA générale est celui qui effraie souvent la plupart des gens, car il représente l’incarnation de nos « seigneurs robots » remplaçant les êtres humains. Cependant, même si cette idée est techniquement possible, nous n’en sommes pas encore à ce stade.
Contrairement à l’IA générale, l’IA étroite est une forme spécialisée d’IA adaptée à des tâches très spécifiques. Cette orientation permet de soutenir l’humain, en nous déchargeant d’un travail trop exigeant ou potentiellement nuisible. Il n’est pas destiné à nous remplacer. L’IA étroite est déjà appliquée dans tous les secteurs, comme pour la construction de voitures ou l’emballage de boîtes. En cybersécurité, Narrow AI peut analyser les données d’activité et les journaux, à la recherche d’anomalies ou de signes d’attaque.
IA et ML dans la nature
Il existe trois modèles courants d’IA et de ML dans la nature : l’IA générative, le ML supervisé et le ML non supervisé.
IA générative
L’IA générative est un domaine de pointe en IA, caractérisé par des modèles, comme les LLM, formés sur un corpus de connaissances. La technologie d’IA générative a la capacité de générer un nouveau contenu basé sur les informations contenues dans ce corpus. L’IA générative a été décrite comme une forme de « correction automatique » ou de « saisie anticipée », mais sous stéroïdes. Des exemples d’applications d’IA générative incluent ChatGPT, Bing, Bard, Dall-E et des cyber-assistants spécialisés, comme IBM Security QRadar Advisor with Watson ou MSFT Security CoPilot.
L’IA générative est la mieux adaptée aux cas d’utilisation tels que le brainstorming, la révision assistée et la conduite de recherches sur un corpus fiable. Professionnels de la cybersécurité, comme les équipes SOC et fusion, peuvent tirer parti de l’IA générative pour la recherche, afin de les aider à comprendre les vulnérabilités Zero Day, les topologies de réseau ou les nouveaux indicateurs de compromission (IoC). Il est important de reconnaître que l’IA générative produit parfois des « hallucinations », c’est-à-dire de mauvaises réponses.
Tout ce que vous vouliez savoir sur la sécurité de l’IA mais que vous aviez peur de demander
Au cours de cette session, nous irons au-delà du battage médiatique et découvrirons si et comment l’IA impacte votre stratégie de cybersécurité.
Selon Etay Maor, directeur principal de la stratégie de sécurité chez Réseaux Cato“L’IA générative peut également aider les criminels. Par exemple, ils peuvent l’utiliser pour rédiger des e-mails de phishing. Avant ChatGPT, l’une des détections de base des e-mails de phishing était les fautes d’orthographe et la mauvaise grammaire. C’étaient des indicateurs que quelque chose était suspect. Aujourd’hui, les criminels peut facilement rédiger un e-mail de phishing dans plusieurs langues avec une grammaire parfaite.”
Apprentissage non supervisé
L’apprentissage non supervisé en ML signifie que les données de formation et les résultats ne sont pas étiquetés. Cette approche permet aux algorithmes de faire des déductions à partir des données sans intervention humaine, pour trouver des modèles, des clusters et des connexions. L’apprentissage non supervisé est couramment utilisé pour les recommandations dynamiques, comme dans les sites Web de vente au détail.
En cybersécurité, l’apprentissage non supervisé peut être utilisé pour le regroupement ou le regroupement et pour détecter des modèles qui n’étaient pas apparents auparavant. Il peut par exemple aider à identifier tous les logiciels malveillants dotés d’une certaine signature provenant d’un État-nation spécifique. Il peut également trouver des associations et des liens entre des ensembles de données. Par exemple, déterminer si les personnes qui cliquent sur des e-mails de phishing sont plus susceptibles de réutiliser leurs mots de passe. Un autre cas d’utilisation est la détection d’anomalies, comme la détection d’activités pouvant indiquer qu’un attaquant utilise des informations d’identification volées.
L’apprentissage non supervisé n’est pas toujours le bon choix. Lorsqu’un résultat erroné a un impact très important et des conséquences graves, lorsque des temps de formation courts sont nécessaires ou lorsqu’une transparence totale est requise, il est recommandé d’adopter une approche différente.
Enseignement supervisé
Dans l’apprentissage supervisé, les données d’entraînement sont étiquetées avec des paires entrée/sortie, et la précision du modèle dépend de la qualité de l’étiquetage et de l’exhaustivité de l’ensemble de données. Une intervention humaine est souvent nécessaire pour examiner les résultats, améliorer la précision et corriger toute dérive de biais. L’apprentissage supervisé est le mieux adapté pour faire des prédictions.
En cybersécurité, l’apprentissage supervisé est utilisé à des fins de classification, ce qui peut aider à identifier le phishing et les logiciels malveillants. Il peut également être utilisé à des fins de régression, par exemple pour prédire le coût d’une nouvelle attaque sur la base des coûts d’incidents passés.
L’apprentissage supervisé n’est pas la meilleure solution s’il n’y a pas de temps pour former ou si personne n’est chargé d’étiqueter ou de former les données. Cette méthode n’est pas non plus recommandée lorsqu’il est nécessaire d’analyser de grandes quantités de données, lorsqu’il n’y a pas suffisamment de données ou lorsque la classification/le regroupement automatisé est l’objectif final.
Apprentissage par renforcement (RL)
L’apprentissage par renforcement (RL) occupe un espace entre l’apprentissage entièrement supervisé et non supervisé et constitue une approche unique du ML. Cela signifie recycler un modèle lorsque la formation existante ne parvient pas à anticiper certains cas d’utilisation. Même l’apprentissage profond, avec son accès à de grands ensembles de données, peut encore passer à côté de cas d’utilisation aberrants que RL peut traiter. L’existence même de RL est un aveu implicite que les modèles peuvent être défectueux.
Ce que disent les cybercriminels à propos de l’IA générative
L’IA générative intéresse les cybercriminels. Selon Etay Maor, « les cybercriminels parlent de la façon d’utiliser ChatGPT, Bard et d’autres applications GenAI depuis le jour de leur introduction, et partagent également leur expérience et leurs réflexions sur leurs capacités. Il semblerait qu’ils pensent que GenAI a des limites. et sera probablement plus mature pour une utilisation par des attaquants dans quelques années. »
Voici quelques exemples de conversations :
Le cadre de gestion des risques liés à l’intelligence artificielle (AI RMF) du NIST
Lorsque l’on s’engage avec l’IA et les solutions basées sur l’IA, il est important de comprendre les limites, les risques et les vulnérabilités de l’IA. Le Cadre de gestion des risques liés à l’intelligence artificielle (AI RMF) par le NIST est un ensemble de lignes directrices et de bonnes pratiques conçues pour aider les organisations à identifier, évaluer et gérer les risques associés au déploiement et à l’utilisation de technologies d’intelligence artificielle.
Le cadre se compose de six éléments :
- Valide et fiable – L’IA peut fournir des informations erronées, également connues dans GenAI sous le nom d’« hallucinations ». Il est important que les entreprises puissent valider que l’IA qu’elles adoptent est précise et fiable.
- Sûr – S’assurer que les informations demandées ne sont pas partagées avec d’autres utilisateurs, comme dans le tristement célèbre Coque Samsung.
- Sécurisé et résilient – Les attaquants utilisent l’IA pour les cyberattaques. Les organisations doivent s’assurer que le système d’IA est protégé et à l’abri des attaques et qu’elles peuvent réussir à contrecarrer les tentatives de l’exploiter ou de l’utiliser pour participer à des attaques.
- Responsable et transparent – Il est important de pouvoir expliquer la chaîne d’approvisionnement de l’IA et de garantir une conversation ouverte sur son fonctionnement. L’IA n’est pas magique.
- Confidentialité améliorée – S’assurer que les informations demandées sont protégées et anonymisées dans le lac de données et lorsqu’elles sont utilisées.
- Équitable – C’est l’un des éléments les plus importants. Cela signifie gérer les préjugés nuisibles. Par exemple, il existe souvent des biais dans la reconnaissance faciale de l’IA, les hommes à la peau claire étant identifiés avec plus de précision que les femmes et les peaux plus foncées. Par exemple, l’utilisation de l’IA à des fins policières pourrait avoir de graves conséquences.
Des ressources supplémentaires pour gérer les risques liés à l’IA comprennent le ATLAS À ONGLETS (Paysage des menaces contradictoires pour les systèmes d’intelligence artificielle), OWASP Top 10 pour le ML et Le cadre d’IA sécurisé de Google (SAIF).
Questions à poser à votre fournisseur
Dans un avenir proche, il sera très courant que les fournisseurs proposent des capacités d’IA générative. Voici une liste de questions à poser pour étayer votre choix éclairé.
1. Quoi et pourquoi ?
Quelles sont les capacités de l’IA et pourquoi sont-elles nécessaires ? Par exemple, GenAI est très doué pour rédiger des e-mails, donc GenAI est logique pour un système de messagerie. Quel est le cas d’utilisation pour le fournisseur ?
2. Données de formation
Les données de formation doivent être gérées correctement et avec précision, sinon elles peuvent créer des biais. Il est important de se renseigner sur les types de données d’entraînement, comment elles ont été nettoyées, comment elles sont gérées, etc.
3. La résilience était-elle intégrée ?
Le fournisseur a-t-il pris en compte le fait que les cybercriminels attaquent le système lui-même et a-t-il mis en œuvre des contrôles de sécurité ?
4. ROI réel par rapport aux réclamations
Quel est le retour sur investissement et le retour sur investissement justifie-t-il la mise en œuvre de l’IA ou du ML (ou ont-ils été ajoutés en raison du battage médiatique et à des fins de vente) ?
5. Est-ce que cela résout vraiment un problème ?
La question la plus importante : l’IA résout-elle votre problème et le fait-elle bien ? Il ne sert à rien de payer un supplément et d’engager des frais supplémentaires à moins que l’IA ne résolve le problème et ne fonctionne comme elle le devrait.
L’IA peut nous responsabiliser et nous aider à être plus performants, mais ce n’est pas une solution miracle. C’est pourquoi il est important que les entreprises prennent des décisions éclairées concernant les outils dotés d’IA qu’elles choisissent de mettre en œuvre en interne.
Pour en savoir plus sur les cas d’utilisation, les risques, les applications, les vulnérabilités et les implications de l’IA et du ML pour les experts en sécurité, regardez l’intégralité de la masterclass ici.