Mikko Hyppönen met en garde contre un danger qui nous menace déjà cette année


Un expert finlandais a expliqué quelles cinq utilisations de l’intelligence artificielle causent des maux de tête aux professionnels de la sécurité de l’information.

Mikko Hyppönen a répertorié du prochain Web dans l’interview, leurs cinq principales préoccupations en matière de sécurité de l’information liées à l’intelligence artificielle.

Selon Hyppönen, directeur de recherche chez Withsecure, l’intelligence artificielle va tout changer : elle apportera un bouleversement plus grand que le changement apporté par Internet dans nos vies. Il estime que ce changement aura des effets positifs, mais il s’inquiète en même temps de son impact sur les nouvelles cybermenaces.

Contrefaçons profondes

En 2023, les délits commis à l’aide des technologies deepfake étaient jusqu’à 3 000 % plus élevés qu’auparavant, selon un rapport d’Onfido, qui développe des services d’authentification. Par exemple, une fausse vidéo avec une célébrité sur Internet est devenue virale sur Tiktok en octobre. chez MrBeast aurait proposé des iPhones pour quelques dollars. Vidéos grossièrement fausses du président ukrainien De Volodymyr Zelensky vu au début de la guerre en Ukraine.

Selon Hyppönen, aucune vidéo crédible et profondément truquée n’a encore été vue lors de tentatives de fraude. Il dit n’en avoir vu que trois, mais il soupçonne que leur nombre pourrait commencer à augmenter rapidement dans un avenir proche.

Il vous invite à vous préparer dès maintenant et à convenir d’un mot de passe de sécurité secret avec vos contacts importants. Si quelqu’un essaie de se faire passer pour un membre de la famille ou un collègue lors d’un appel vidéo et que la situation commence à devenir désagréable, vous pouvez alors demander à l’autre personne de mentionner le mot de passe.

L’histoire continue sous l’image.

Le directeur de recherche de Withsecure, Mikko Hyppönen, affirme que les sociétés frauduleuses n’ont pas encore vu de vidéos deepfake crédibles. Il soupçonne toutefois que leur nombre pourrait commencer à augmenter. Kimmo Haapala

Escroqueries profondes

Grâce à l’automatisation, l’ampleur de la fraude peut devenir énorme. Deep ici ne fait pas nécessairement référence au contenu manipulé mais plutôt à l’ampleur de l’arnaque.

Les escrocs romantiques comme l’escroc Tinder ont réussi à arnaquer des millions de femmes qu’ils ont rencontrées. Cependant, il devait écrire des messages à chacun séparément. Selon Hyppönen, grâce à de nombreux modèles linguistiques, un tel escroc pourrait faire des milliers de victimes au lieu de quelques-unes. En plus de traduire les messages, les applications d’intelligence artificielle permettraient également de créer des images de l’alter ego d’un escroc qui se comporte comme un voyou.

Les mêmes astuces fonctionnent également pour l’auteur de l’arnaque Airbnb, qui créerait de fausses propriétés locatives pour le service.

Logiciel malveillant écrit par le modèle de langage

Des services comme ChatGPT sont déjà utilisés pour créer et réécrire du code malveillant afin de rendre plus difficile l’identification des virus. Hyppönen affirme que son équipe a déjà découvert des programmes malveillants qui utilisaient un modèle de langage pour les aider à renouveler leur code à chaque fois qu’ils se propageaient.

OpenAI a bloqué l’entrée de code malveillant dans son service. Malgré le nom de l’entreprise, son code n’est pas du code ouvert, mais uniquement destiné à son propre usage.

– Si vous pouviez télécharger l’intégralité du modèle de langage étendu, vous pourriez l’exécuter localement ou sur votre propre serveur. Alors les autres ne pourraient plus vous arrêter. C’est l’avantage des systèmes d’intelligence artificielle générative à code fermé, explique Hyppönen.

L’histoire continue sous l’image.

L’équipe de Hyppönen a déjà vu comment des modèles de langage tels que ChatGPT peuvent être utilisés pour propager des logiciels malveillants. Kimmo Haapala

Recherche de vulnérabilités Zero Day

– C’est formidable de pouvoir utiliser un assistant IA pour trouver des vulnérabilités zero-day dans votre code afin de pouvoir les corriger. Et c’est effrayant quand quelqu’un d’autre utilise l’intelligence artificielle pour trouver des vulnérabilités du jour zéro afin de les exploiter, dit Hyppönen.

Avec le devoir de secure, l’étudiant a déjà testé cela dans sa thèse. Il a réussi à automatiser l’escalade des droits des utilisateurs dans l’environnement Windows 11 en analysant et en exploitant les vulnérabilités. L’entreprise a caché la thèse car, selon Hyppönen, la publication des résultats n’aurait pas été une activité responsable.

Malware automatisé

Hyppönen classe les logiciels malveillants entièrement automatisés comme la menace la plus dangereuse pour la sécurité des informations en 2024.

Les sociétés de sécurité de l’information automatisent leurs propres opérations depuis des années, et les criminels pourraient développer leurs propres systèmes similaires. Bientôt, la sécurité de l’information pourrait être un jeu entre la bonne et la mauvaise intelligence artificielle.

À l’avenir, il y aura une intelligence artificielle à grande échelle et à usage général

En prime, Hyppönen évoque également le développement d’une intelligence artificielle de type humain. Les intelligences artificielles utilisées aujourd’hui sont, par définition, des intelligences artificielles étroites, c’est-à-dire des technologies conçues dans un but précis, mais qui ne sont pas capables de tout ce dont l’intelligence humaine est capable.

– Je crois que nous deviendrons le deuxième être le plus intelligent de cette planète au cours de ma vie. Je ne pense pas que cela se produira en 2024, mais je pense que cela se produira de mon vivant, dit Hyppönen.

Avec ce type de technologie, les avantages et les risques sont énormes. Par conséquent, selon Hyppönen, elle devrait être développée de manière à ce que l’intelligence artificielle à usage général comprenne l’humanité et que ses objectifs soient conformes aux objectifs à long terme des individus.



ttn-fr-54