L’économiste Koen Schoors : « Il y a aussi un côté sombre dans la révolution de l’IA »

La forme d’IA qui captive le plus l’imagination du public est ce qu’on appelle « »grands modèles de langage’, en utilisant ChatGPT comme exemple. Ces gigantesques modèles de langage sont eux-mêmes le résultat d’une série d’algorithmes imbriqués et sont formés sur des ensembles de données massifs. Le résultat est un modèle ultra-complexe avec plusieurs milliards de paramètres, dont personne ne sait exactement comment ni pourquoi il fonctionne, mais qui génère un texte qui se distingue à peine du texte humain et prend en charge de nombreuses tâches humaines de manière transparente. Fantasmagorique.

Les étudiants les utilisent pour leurs devoirs, leurs devoirs de rédaction, leurs débats et leurs critiques de livres. Les étudiants universitaires demandent de l’aide pour rédiger des textes, des présentations et trouver des titres. De plus, ces modèles linguistiques parlent également des langages informatiques. Demandez au système d’écrire le code informatique pour un problème spécifique et vous obtenez quelque chose d’étonnamment bien élaboré. De nombreuses tâches qui, selon nous, nécessitaient de la créativité et de la perspicacité humaines sont accomplies en un clin d’œil par ces modèles génératifs. Le potentiel de changement perturbateur est énorme.

fausses nouvelles

De nombreuses entreprises et gouvernements exploitent déjà pleinement l’IA. Formez l’un de ces modèles avec de bons textes spécifiques à votre produit ou à votre problème spécifique et enrichissez ce modèle avec de nouvelles fonctionnalités conçues spécifiquement pour les besoins de vos clients. Après une formation et des commentaires humains, vous obtiendrez quelque chose qui fonctionne étrangement bien. Oubliez la liste Questions fréquemment posées sur votre site Internet. Bientôt, l’IA répondra avec précision non seulement aux questions fréquemment posées, mais également aux questions sur un détail technique dans une note de bas de page.

Mais il y a aussi un côté sombre à cette révolution. Ce grands modèles de langage réduire à zéro les coûts de production des conneries, des fausses nouvelles et des mensonges polarisants. Si une organisation ou un État voyou veut propager une fausse histoire, une théorie du complot ou un certain préjugé, il vous suffit d’alimenter votre modèle avec uniquement des variantes de texte qui lui correspondent. Si vous alimentez suffisamment le modèle d’IA avec ce type de ressources, le système produira en douceur des interactions textuelles compréhensibles et crédibles qui alimenteront les fausses nouvelles, alimenteront la théorie du complot et amplifieront les préjugés.

Ennemis de la démocratie

Il devient facile de laisser une armée de faux comptes lancer des conversations alimentées par différentes versions d’un modèle d’IA malveillant sous-jacent. Et ces comptes pourraient permettre de converser avec de vraies personnes de manière compréhensible, voire humaine, en manipulant délibérément leurs opinions. En déployant massivement ces nouveaux modèles dans l’espace ouvert de l’information, il est devenu un jeu d’enfant d’inonder les démocraties de messages profilés et polarisants et de les détruire. Soyez assurés que les ennemis de la démocratie y travaillent déjà.

Pire encore, si vous utilisez l’IA intelligemment, vous pouvez même saper le concept de vérité. Il devient si facile de bombarder les gens avec un déluge d’histoires à la con et aux messages contradictoires, qu’ils abandonnent tout simplement la recherche de la vérité.

La personnalité juridique

Ainsi, l’idée d’une « base de faits » commune disparaît et le terrain du jeu est entièrement entre les mains des manipulateurs et de la propagande. Si les gens eux-mêmes n’ont aucun moyen de découvrir la vérité, l’abandon scolaire devient la seule option. Mais alors le tissu socio-économique sur lequel repose notre contrat social disparaîtra également.

Il n’est donc pas surprenant que certains pères de l’IA se retournent désormais contre leur propre idée. En attendant de meilleures règles, il semble prudent de priver l’IA de son droit à l’anonymat. Si vous discutez avec une IA, vous devez toujours le savoir. Sinon, les IA non seulement nous mentiront, mais avant même que nous nous en rendions compte, elles extorqueront de l’argent au moyen de systèmes pyramidaux et de phishing crédibles au profit de leurs patrons criminels ou d’eux-mêmes. Et nous ne pouvons pas priver les IA de leur anonymat tant que nous ne leur avons pas donné la personnalité juridique afin de pouvoir les tenir responsables et les punir pour avoir enfreint les règles. Ce sera un avenir intéressant.



ttn-fr-31