Les investisseurs doivent se méfier des manipulations profondes du marché


Le mois dernier, un événement a éclaté en ligne qui devrait faire tressaillir tout investisseur. Une vidéo deepfake d’une prétendue explosion près du Pentagone est devenue virale, après avoir été retweetée par des médias tels que Russia Today, faisant vaciller les marchés boursiers américains.

Heureusement, les autorités américaines ont rapidement inondé les médias sociaux de déclarations déclarant que la vidéo était fausse – et RT a publié une déclaration penaude admettant que « c’est juste une image générée par l’IA ». Les marchés ont ensuite rebondi.

Cependant, l’épisode a créé une toile de fond qui donne à réfléchir à la visite de cette semaine de Rishi Sunak, Premier ministre britannique, à Washington – et à sa candidature à une initiative conjointe américano-britannique pour lutter contre les risques de l’IA.

Il y a eu récemment un chœur d’alarmes croissant à l’intérieur et à l’extérieur du secteur de la technologie concernant les dangers de l’IA hyper-intelligente et autogérée. La semaine dernière, plus de 350 scientifiques ont publié une lettre conjointe avertissant que « l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ».

Ces menaces d’« extinction » à long terme font la une des journaux. Mais des experts tels que Geoff Hinton – un universitaire et ancien employé de Google considéré comme l’un des « parrains de l’IA » – pensent que le danger le plus immédiat dont nous devrions nous inquiéter n’est pas que les machines se déchaînent de manière indépendante, mais que les humains en abusent.

Plus particulièrement, comme Hinton l’a récemment déclaré lors d’une réunion à l’université de Cambridge, la prolifération des outils d’IA pourrait considérablement exacerber les cyber-problèmes existants tels que la criminalité, le piratage et la désinformation.

Il y a déjà une vive inquiétude à Washington que les deepfakes empoisonnent la course aux élections de 2024. Ce printemps, il est apparu qu’ils avaient déjà eu un impact sur la politique vénézuélienne. Et cette semaine, des hackers ukrainiens ont diffusé une vidéo deepfake de Vladimir Poutine sur certaines chaînes de télévision russes.

Mais la sphère financière apparaît désormais comme un autre sujet de préoccupation. Le mois dernier, le cabinet de conseil Kaspersky publié une étude ethnographique du dark web, qui notait « une demande importante de deepfakes », avec « des prix à la minute de deepfake vidéo [ranging] de 300 $ à 20 000 $ ». Jusqu’à présent, ils ont principalement été utilisés pour des escroqueries à la crypto-monnaie, indique-t-il. Mais la vidéo deepfake du Pentagone montre comment ils pourraient également avoir un impact sur les marchés d’actifs traditionnels. « Nous pouvons voir des criminels l’utiliser à des fins délibérées [market] manipulation », me dit un responsable américain de la sécurité.

Alors, y a-t-il quelque chose que Sunak et le président américain Joe Biden puissent faire ? Pas facilement. La Maison Blanche a récemment tenu des discussions officielles sur les politiques transatlantiques en matière d’IA avec l’UE (dont la Grande-Bretagne, en tant que non membre de l’UE, était exclue). Mais cette initiative n’a pas encore abouti à un pacte tangible. Les deux parties reconnaissent le besoin désespéré de politiques d’IA transfrontalières, mais les autorités de l’UE sont plus soucieuses des contrôles réglementaires descendants que Washington – et déterminées à tenir les groupes technologiques américains à distance.

Ainsi, certains responsables américains soupçonnent qu’il pourrait être plus facile de lancer une coordination internationale avec une initiative bilatérale d’IA avec le Royaume-Uni, étant donné la publication récente d’un document d’orientation plus favorable aux entreprises. Il existe des liens de renseignement étroits préexistants, via le soi-disant pacte de sécurité Five Eyes, et les deux pays détiennent une grande partie de l’écosystème occidental de l’IA (ainsi que des marchés financiers).

Plusieurs idées ont été lancées. L’une, poussée par Sunak, consiste à créer un institut de recherche international sur l’IA financé par des fonds publics, semblable au Cern, le centre de physique des particules. L’espoir est que cela pourrait développer l’IA en toute sécurité, ainsi que créer des outils activés par l’IA pour lutter contre les abus tels que la désinformation.

Il existe également une proposition visant à créer un organe mondial de surveillance de l’IA similaire à l’Agence internationale de l’énergie atomique ; Sunak tient à ce que cela soit basé à Londres. Une troisième idée consiste à créer un cadre mondial de licences pour le développement et le déploiement d’outils d’IA. Cela pourrait inclure des mesures pour établir des « filigranes » qui montrent la provenance du contenu en ligne et identifient les deepfakes.

Ce sont toutes des idées très sensées qui pourraient – ​​et devraient – ​​être déployées. Mais il est peu probable que cela se produise rapidement ou facilement. La création d’un CERN de type IA pourrait être très coûteuse et il sera difficile d’obtenir un soutien international rapide pour un organe de surveillance de type AIEA.

Et le gros problème qui hante tout système de licence est de savoir comment amener l’écosystème plus large sur le net. Les groupes technologiques qui dominent la recherche de pointe sur l’IA en Occident – tels que Microsoft, Google et OpenAI – ont indiqué à la Maison Blanche qu’ils coopéreraient avec des idées de licences. Leurs utilisateurs professionnels tomberaient presque certainement dans la file également.

Cependant, il serait beaucoup plus difficile d’attirer des tiddlers d’entreprise – et des groupes criminels – dans un réseau de licences. Et il existe déjà beaucoup de matériel d’IA open source qui peut être abusé. Le deepfake vidéo du Pentagone, par exemple, semble avoir utilisé des systèmes rudimentaires.

La vérité désagréable est donc qu’à court terme, la seule façon réaliste de lutter contre le risque de manipulation du marché est que les financiers (et les journalistes) déploient plus de diligence raisonnable – et que les détectives du gouvernement chassent les cybercriminels. Si la rhétorique de cette semaine de Sunak et Biden aide à sensibiliser le public à ce sujet, ce serait une bonne chose. Mais personne ne devrait être dupe en pensant que la connaissance seule résoudra la menace. Caveat emptor.

[email protected]



ttn-fr-56