Sundar Pichai : L’IA peut renforcer les cyberdéfenses, pas seulement les détruire


Restez informé avec des mises à jour gratuites

L’écrivain est directeur général de Google et d’Alphabet

L’année dernière a été marquée par des changements technologiques rapides et importants, alimentés par les progrès de l’intelligence artificielle. Des millions de personnes utilisent désormais les outils d’IA pour apprendre de nouvelles choses et pour être plus productives et créatives. À mesure que les progrès se poursuivent, la société devra décider de la meilleure façon d’exploiter l’énorme potentiel de l’IA tout en faisant face à ses risques.

Chez Google, notre approche consiste à faire preuve d’audace dans notre ambition de faire en sorte que l’IA profite aux individus, stimule le progrès économique, fasse progresser la science et relève les défis sociétaux les plus urgents. Et nous nous engageons à développer et déployer l’IA de manière responsable : les modèles Gemini que nous avons lancés en décembre, qui sont nos plus performants à ce jour, ont fait l’objet des évaluations de sécurité les plus rigoureuses que nous ayons jamais réalisées.

Jeudi, j’ai visité l’Institut Curie à Paris pour discuter de la manière dont nos outils d’IA pourraient les aider dans leurs travaux pionniers sur certaines des formes de cancer les plus graves. Vendredi, lors de la Conférence de Munich sur la sécurité, je participerai aux discussions sur une autre priorité importante : l’impact de l’IA sur la sécurité mondiale et régionale.

Les dirigeants d’Europe et d’ailleurs ont exprimé leurs inquiétudes quant au potentiel de l’IA à aggraver les cyberattaques. Ces préoccupations sont justifiées, mais si elle repose sur des bases adéquates, l’IA a le potentiel, au fil du temps, de renforcer plutôt que d’affaiblir les cyberdéfenses mondiales.

L’exploitation de l’IA pourrait inverser le dilemme du défenseur en matière de cybersécurité, selon lequel les défenseurs doivent réussir 100 % du temps, tandis que les attaquants n’ont besoin de réussir qu’une seule fois. Les cyberattaques étant désormais un outil de choix pour les acteurs cherchant à déstabiliser les économies et les démocraties, les enjeux sont plus élevés que jamais. Fondamentalement, nous devons nous prémunir contre un avenir dans lequel les attaquants pourront innover en utilisant l’IA et les défenseurs ne le pourront pas.

Pour responsabiliser les défenseurs, nous avons commencé à intégrer des chercheurs et des approches d’IA dans les équipes de cybersécurité de Google il y a plus de dix ans. Plus récemment, nous avons développé un grand modèle de langage spécialisé, affiné pour la sécurité et les renseignements sur les menaces.

Nous voyons comment l’IA peut renforcer les cyberdéfenses. Certains de nos outils sont déjà jusqu’à 70 % plus efficaces pour détecter les scripts malveillants et jusqu’à 300 % plus efficaces pour identifier les fichiers qui exploitent des vulnérabilités. Et l’IA apprend rapidement, aidant les défenseurs à s’adapter aux attaques de criminalité financière, d’espionnage ou de phishing comme celles qui ont récemment frappé les États-Unis, la France et d’autres pays.

Cette rapidité aide nos propres équipes de détection et d’intervention, qui ont constaté un gain de temps de 51 % et obtenu des résultats de meilleure qualité grâce à l’IA générative. Notre navigateur Chrome examine des milliards d’URL par rapport à des millions de ressources Web malveillantes connues et envoie plus de 3 millions d’avertissements par jour, protégeant ainsi des milliards d’utilisateurs.

Donner aux défenseurs les moyens d’agir signifie également s’assurer que les systèmes d’IA sont sécurisés par défaut, avec des protections de la vie privée intégrées. Ces progrès techniques se poursuivront. Mais exploiter toutes les opportunités offertes par la sécurité basée sur l’IA va au-delà de la technologie elle-même. Je vois trois domaines clés dans lesquels les institutions privées et publiques peuvent travailler ensemble.

Premièrement, la réglementation et la politique. J’ai dit l’année dernière que l’IA était trop importante pour ne pas être bien réglementée. La loi européenne sur l’IA constitue une évolution importante dans l’équilibre entre innovation et risque. Alors que d’autres débattent de cette question, il est essentiel que les décisions de gouvernance que nous prenons aujourd’hui ne fassent pas pencher la balance dans la mauvaise direction.

Les initiatives politiques peuvent renforcer notre sécurité collective, par exemple en encourageant la mise en commun d’ensembles de données pour améliorer les modèles ou en explorant les moyens d’introduire les défenses IA dans les secteurs d’infrastructures critiques. La diversification des achats de technologies du secteur public pourrait aider les institutions à éviter les risques liés au recours à un seul fournisseur traditionnel.

Deuxièmement, l’IA et la formation professionnelle, pour garantir que les gens possèdent les connaissances numériques nécessaires pour se défendre contre les cybermenaces. Pour vous aider, nous avons lancé une AI Opportunity Initiative for Europe afin de proposer une gamme de formations fondamentales et avancées en IA. Nous soutenons également des start-up innovantes, comme la société ukrainienne LetsData, qui fournit un « radar IA » en temps réel contre la désinformation dans plus de 50 pays.

Troisièmement, nous avons besoin d’un partenariat plus approfondi entre les entreprises, les gouvernements, les universitaires et les experts en sécurité. Notre centre d’ingénierie de sécurité de Malaga se concentre sur la collaboration croisée qui élève les normes de sécurité pour tous. Dans le même temps, les forums et systèmes mondiaux – comme le Frontier Model Forum et notre Secure AI Framework – joueront un rôle important dans le partage de nouvelles approches efficaces.

La protection des personnes sur un Web mondial ouvert est un exemple urgent de la raison pour laquelle nous avons besoin d’une approche audacieuse et responsable en matière d’IA. Ce n’est pas le seul. Aider les chercheurs à identifier de nouveaux médicaments contre les maladies, améliorer les alertes en cas de catastrophe naturelle ou ouvrir de nouvelles opportunités de croissance économique sont tout aussi urgents et bénéficieront du développement responsable de l’IA. Les progrès dans tous ces domaines profiteront à l’Europe et au monde.



ttn-fr-56