DÉRANGED Poutine pourrait utiliser la fausse pornographie générée par l’IA pour perturber et détruire les démocraties occidentales, a prévenu un analyste du renseignement.
Nina Jankowicz, ancienne directrice exécutive du groupe de travail sur la désinformation du département américain de la Sécurité intérieure, a déclaré au Sun qu’elle était « vraiment inquiète » du risque que l’IA soit entre les mains de la Russie.
Le professeur Jankowicz, qui a étudié en Russie et travaillé avec le ministère ukrainien des Affaires étrangères, analyse les opérations russes visant à affaiblir les démocraties dans le monde entier.
Elle a déclaré au Sun que la Russie a déjà utilisé du faux porno pour attaquer ses ennemis – et qu’une seule image réelle est nécessaire pour générer les nus omniprésents de l’IA.
Et l’expert en IA pense que le faux porno « malade » fait définitivement partie du « manuel sexualisé » de la Russie lorsqu’il s’agit d’affaiblir davantage de pays occidentaux.
Elle a même déclaré que certains des cybercriminels russes produisant ces images omniprésentes agissaient sur ordre direct de Poutine.
Jankowicz a expliqué que même si l’IA peut être une « technologie transformatrice », entre de mauvaises mains, elle peut être extrêmement dangereuse.
L’essor rapide de cette technologie a créé « un tout nouveau niveau de menace » et constitue un « excellent moyen de bouleverser l’équilibre des pouvoirs ».
« La grande majorité des deep fakes en ligne sont de la pornographie deep fake non consensuelle de femmes », a-t-elle déclaré au Sun.
Et la Russie a déjà utilisé cette méthode terrifiante pour « attaquer les femmes qui font partie des démocraties » en Ukraine et en Géorgie.
« Si j’étais la Russie, j’envisagerais d’utiliser de la fausse pornographie pour saper les démocraties… pour bouleverser l’équilibre des pouvoirs ».
« Cibler les femmes est un excellent moyen d’y parvenir », a-t-elle prévenu.
Jankowicz a déclaré au Sun que 96 % des images deepfakes en ligne sont de la pornographie.
« Nous sommes à une époque où une seule photo d’une femme peut être utilisée pour créer un deepfake réaliste.
« La Russie les déploie de manière très stratégique. Ils déchirent le tissu social, les vulnérabilités de la société, les tendances misogynes. »
C’est malade… je ne veux pas laisser les méchants gagner
Nina Jankowicz
« Le manuel de jeu sexualisé fait partie de leurs outils et tactiques depuis très longtemps », a-t-elle expliqué.
«Si vous voulez contrarier un candidat à un poste ou un haut responsable militaire, c’est un bon moyen de nuire à sa crédibilité.
« C’est vraiment omniprésent. »
Le résultat est que d’autres femmes sont plus réticentes à occuper des postes publics ou de haut rang au sein du gouvernement, des forces armées, etc., ce qui perturbe l’équilibre d’une société moderne et démocratique.
Jankowicz, qui a également écrit deux livres sur la désinformation et les femmes en ligne, a elle-même été prise pour cible.
Dans Comment être une femme en ligne : survivre aux abus et au harcèlement, et comment se défendre, elle parle de sa propre expérience avec le faux porno profond.
Nina a déclaré au Sun : « Mes deepfakes ont été créés dans les semaines qui ont suivi ma démission du gouvernement en 2022.
« En fait, je ne les ai pas découverts pendant un certain temps après, c’est une alerte Google qui m’a permis de les découvrir.
« Bien sûr, cela faisait partie d’une ingérence plus large dans la vie publique et c’est pourquoi je continue d’en parler.
« C’est dingue », dit-elle, « je ne veux pas laisser les méchants gagner ».
Les cybergroupes russes agissent-ils sur ordre du Kremlin ?
Nina a déclaré au Sun que les cybergroupes russes produisant ces images et clips pervers pourraient le faire sur ordre direct de Poutine.
« Nous avons déjà vu les services de sécurité russes impliqués dans ce genre de choses, en particulier contre des personnalités de l’opposition russe.
« Le Kremlin emploie directement ces groupes par l’intermédiaire des services de sécurité ou conclut des pactes criminels avec eux.
« Les criminels s’en serviront comme d’une faveur pour les empêcher d’aller en prison. »
L’idée est de miner la crédibilité d’une femme… de la faire tomber de quelques pieds. Ils voient cela comme une punition pour les femmes qu’ils représentent
Nina Jankowicz
Le régime russe a toujours vu les services de sécurité consacrer énormément de temps et d’argent à espionner ses ennemis, et il peut désormais générer artificiellement les informations qu’ils souhaitent utiliser, a-t-elle averti.
Et s’ils devaient ainsi jouer directement avec les gouvernements occidentaux, ils cibleraient des personnalités de premier plan.
« S’ils devaient intervenir de cette manière, il faudrait que ce soit une cible de grande valeur.
« Je pense qu’il est possible qu’ils s’intéressent à des responsables gouvernementaux… à un secrétaire de cabinet ou à une personne nommée de haut rang. »
Alors que nous approchons d’une année d’élections, aux États-Unis, au Royaume-Uni et dans des dizaines d’autres pays, Nina s’est déclarée « absolument préoccupée » par la perspective de la pornographie générée par l’IA.
« Si vous regardez la manière dont cela a été utilisé auparavant contre les femmes en politique dans les pays démocratiques, cela constitue déjà un énorme problème depuis environ huit ans.
Je pense qu’il est possible qu’ils s’intéressent à des représentants du gouvernement… un secrétaire de cabinet ou une personne nommée de haut rang.
Nina Jankowicz
« On a laissé perdurer cette situation sans grande intervention des entreprises technologiques ou du gouvernement.
« Quand je regarde les vulnérabilités que nous avons dans la société occidentale, la misogynie en est certainement une et nous savons que [Russia] a déjà utilisé une sorte de rhétorique misogyne et de désinformation misogyne. »
Deepfake porno en Ukraine et en Géorgie
Nina donne l’exemple de la députée ukrainienne Svitlana Zalishchuk qui a été la cible de deepfake porn il y a sept ans.
En 2017, de fausses publications en ligne d’AI d’un tweet semblant avoir été écrit par Zalishchuk la voyaient promettre de courir nue dans la rue à Kiev si l’Ukraine perdait une bataille clé.
Il était vraiment inquiétant qu’un journaliste d’un pays européen prenne cela au sérieux au point d’en parler aux Nations Unies.
Nina Jankowicz
À côté du message se trouvaient de fausses images d’elle complètement nue.
Jankowicz a déclaré au Sun que le message apparemment réel était devenu tellement viral « qu’un journaliste lui a ensuite posé des questions à ce sujet lors d’une réunion des Nations Unies pour les femmes ».
« C’était vraiment inquiétant qu’un journaliste d’un pays européen prenne cela au sérieux au point d’en parler sous le nom des Nations Unies », a déclaré Nina.
« De la même manière, il y a eu des scandales de sex tapes en Géorgie », un pays où Nina abrite des groupes criminels « de mèche avec le Kremlin ».
« La Russie était capable soit d’utiliser des cassettes sexuelles attribuées à certaines femmes mais qui n’étaient pas réellement celles-ci, soit de les espionner parce qu’elles étaient impliquées dans des relations extraconjugales ou dans leur propre chambre. »
Nina a déclaré au Sun que la Russie avait pour habitude de faire cela aux personnalités de l’opposition, et que l’idée derrière cela était de « leur faire honte de la vie publique ».
« Les sexualiser, en particulier dans un pays très traditionnel comme la Géorgie, peut leur être très préjudiciable », a-t-elle ajouté.
« Cela est arrivé à plusieurs femmes qui ont complètement quitté la vie publique. »
La montée des deepfakes
Le porno DEEPFAKE n’a rien de nouveau, mais ces dernières années, il a attiré davantage d’attention à mesure que des cibles de plus en plus célèbres en sont victimes.
Le terme a été inventé pour la première fois en 2017, lorsque les visages de personnalités de premier plan étaient retouchés ou édités sur du contenu pornographique.
Dans sa première forme, une combinaison d’algorithmes d’apprentissage automatique serait utilisée avec un logiciel d’IA pour les créer.
Mais à mesure que l’IA devient de plus en plus sophistiquée, des visuels très réalistes peuvent être facilement créés à partir de zéro, en utilisant les photographies les plus modestes.
Il y a quelques semaines à peine, la mégastar Taylor Swift a été victime de fausses images explicites diffusées en ligne.
Sans doute la personne la plus célèbre à avoir été victime de cette technologie dangereuse : l’une des images a été visionnée environ 45 millions de fois.
Parmi les autres femmes célèbres qui ont été ciblées au fil des ans figurent Gal Gadot, Emma Watson, Natalie Portman et Scarlett Johansson.
Le professeur Jankowicz connaît quatre grands sites Web spécialisés dans les images, mais il existe de nombreux autres sous-thèmes, copies et sites sur le Web et la réglementation s’est révélée difficile.
Les gouvernements, les scientifiques et les analystes du renseignement comme Jankowicz cherchent de plus en plus de moyens de lutter contre cette technologie tordue.
Exemples au Royaume-Uni
Cara Hunter, une politicienne nord-irlandaise, a vu une fausse vidéo porno à son effigie publiée en ligne alors qu’elle se présentait aux élections d’avril 2022.
Partagée des dizaines de milliers de fois en ligne, cette vidéo lui a valu d’être harcelée sexuellement alors même qu’elle marchait dans la rue.
L’un des premiers incidents politiques « profondément faux » en Grande-Bretagne – et le premier avec une personnalité aussi médiatisée – visait le leader travailliste Keir Starmer.
En octobre 2023, un clip audio de Starmer a tourbillonné en ligne, le montrant apparemment en train d’insulter son personnel.
Une autre fausse déclaration du maire de Londres, Sadiq Khan, a laissé entendre qu’il était opposé aux monuments commémoratifs du jour du Souvenir et qu’il était plutôt favorable à une marche pro-palestinienne.
Même si ni l’un ni l’autre n’étaient pornographiques, ils ont convaincu les internautes et se sont répandus rapidement.
Le président britannique de la Commission électorale a également récemment averti que les femmes parlementaires pourraient être directement ciblées par la pornographie deepfake – en particulier à l’approche des élections générales de cette année.
John Pullinger a déclaré au Financial Times il y a quelques semaines que l’IA pourrait « bloquer la véritable campagne ».
Et il a prévenu que toute fausse pornographie générée par l’IA serait « beaucoup plus ciblée sur les candidates féminines ».
2024 est une année charnière pour l’IA
Une étude du Université d’Oxford il y a quelques semaines à peine, l’IA était sur le point de « balayer l’espace de l’information cette année, à une époque d’intense volatilité politique et économique à travers le monde ».
Ceci, disent-ils, est particulièrement dangereux au cours d’une année marquée par des élections dans plus de 40 démocraties à travers le monde et des guerres sur différents continents.
L’étude met en garde contre les « mauvais acteurs » qui pourraient utiliser des technologies comme l’IA pour influencer les résultats des élections de 2024.
Les grandes technologies travaillent dur et rapidement pour contrer la menace d’une désinformation aussi réaliste en ligne – mais il est difficile de juger à ce stade si elles seront en mesure de le faire de manière efficace et cohérente.