ChatGPT & Co. : Menaces et risques de sécurité identifiés


Pour la première fois, une entreprise a mis un chatbot doté d’une telle gamme de fonctionnalités à la disposition de tous, gratuitement. Il s’agit de ChatGPT, le chatbot de la startup américaine OpenAI.

IA : des modèles de langage comme ChatGPT sur toutes les lèvres

Cela faisait longtemps qu’une innovation technique n’avait pas influencé le discours public comme le fait ChatGPT depuis plusieurs mois maintenant. Qu’il s’agisse d’écoliers, d’étudiants, d’entrepreneurs, d’employés de bureau ou de passionnés de technologie, chacun espère profiter du nouvel outil.

ChatGPT peut répondre à un large éventail de questions et fonctionne dans de nombreuses langues. C’est pourquoi beaucoup de gens jouent avec l’intelligence artificielle. Cependant, il s’agit moins d’une première étape technique que d’une démonstration de l’état actuel de ces grands modèles linguistiques (LLM). Ces LLM sont des programmes capables de traiter automatiquement les entrées de l’utilisateur.

Malédiction et bénédiction : BSI détecte de nouvelles menaces et risques de sécurité

Malgré toute la joie suscitée par les nouvelles options désormais accessibles au grand public, l’Office fédéral de la sécurité de l’information (BSI) met désormais en garde dans une prise de position sur les menaces et les risques de sécurité qui découlent de leur utilisation.

Le BSI a identifié une variété de menaces qui peuvent être amplifiées par les modèles linguistiques de l’IA. Ceux-ci aident probablement à créer et à optimiser des logiciels malveillants et facilitent la génération de spams et d’e-mails de phishing trompeusement authentiques. Comme ces textes créés automatiquement ne contiennent pratiquement aucune faute d’orthographe ou de grammaire, l’un des critères qui permettaient auparavant de démasquer de tels textes est perdu.

Il existerait également un risque que des attaquants potentiels redirigent les entrées des utilisateurs de ces logiciels vers d’autres modèles de langage afin de manipuler les résultats et d’accéder à des informations sensibles. On ne sait pas non plus dans quelle mesure les opérateurs de ces modèles pourraient évaluer les données et les transmettre à des tiers.

Contenu discutable et actualité limitée

Un risque évident est que les modèles de langage apprennent des entrées des utilisateurs. Cela signifie que les interactions avec les utilisateurs servent de formation au système, ce qui peut bien sûr conduire des acteurs malveillants à alimenter ces modèles avec du contenu pouvant conduire à la désinformation, à la propagande et aux discours de haine.

Les informations que les utilisateurs demandent à ces modèles de langage sont souvent obsolètes. ChatGPT souligne souvent que le niveau de connaissance sur l’IA ne dure que jusqu’en 2021. Cela peut modifier considérablement les dépenses consacrées à des événements économiques ou politiques.

Equipe éditoriale finanzen.net



ttn-fr-28