Des conversations avec des robots IA auraient pour effet de réduire les croyances en matière de théories du complot


Restez informé avec des mises à jour gratuites

Les théoriciens du complot qui ont débattu avec un chatbot d’intelligence artificielle sont devenus plus disposés à admettre des doutes sur leurs croyances, selon une étude qui offre un aperçu sur la gestion de la désinformation.

Les scientifiques ont découvert que cette plus grande ouverture d’esprit s’étendait même aux dévots les plus obstinés et persistait longtemps après la fin du dialogue avec la machine.

Cette recherche contredit l’idée selon laquelle il est pratiquement impossible de changer l’opinion d’individus qui se sont plongés dans des idées populaires mais non prouvées.

Ces résultats sont frappants car ils suggèrent un rôle positif potentiel des modèles d’IA dans la lutte contre la désinformation, malgré leur propre vulnérabilité aux « hallucinations » qui les poussent parfois à diffuser des faussetés.

L’ouvrage « dresse un tableau plus lumineux de l’esprit humain que beaucoup auraient pu l’espérer » et montre que « le raisonnement et les preuves ne sont pas morts », a déclaré David Rand, l’un des chercheurs sur l’ouvrage. publié dans Science le jeudi.

« Même de nombreux théoriciens du complot réagiront à des faits et des preuves précis – il suffit de répondre directement à leurs croyances et préoccupations spécifiques », a déclaré Rand, professeur à la Sloan School of Management du Massachusetts Institute of Technology.

« Bien qu’il existe de nombreuses inquiétudes légitimes quant au pouvoir de l’IA générative à diffuser de la désinformation, notre article montre comment elle peut également faire partie de la solution en étant un éducateur très efficace », a-t-il ajouté.

Les chercheurs ont examiné si les grands modèles linguistiques de l’IA tels que GPT-4 Turbo d’OpenAI pourraient utiliser leur capacité à accéder à des informations et à les résumer pour répondre à des croyances conspirationnistes persistantes. Parmi celles-ci, citons le fait que les attentats terroristes du 11 septembre 2001 ont été mis en scène, que l’élection présidentielle américaine de 2020 a été frauduleuse et que la pandémie de Covid-19 a été orchestrée.

Près de 2 200 participants ont partagé des idées conspirationnistes avec le LLM, ce qui a généré des preuves pour contrer ces allégations. Ces dialogues ont réduit en moyenne de 20 % la croyance auto-évaluée de la personne dans la théorie choisie pendant au moins deux mois après avoir parlé au robot, ont déclaré les chercheurs.

Un vérificateur de faits professionnel a évalué l’exactitude d’un échantillon des résultats du modèle lui-même. La vérification a révélé que 99,2 % des affirmations du LLM étaient vraies et 0,8 % étaient trompeuses, ont déclaré les scientifiques.

L’approche personnalisée de questions-réponses de l’étude est une réponse à l’inefficacité apparente de nombreuses stratégies existantes pour démystifier la désinformation.

Une autre complication des efforts généralisés visant à cibler la pensée conspirationniste est que de véritables conspirations se produisent, alors que dans d’autres cas, les récits sceptiques peuvent être fortement embellis mais basés sur un fond de vérité.

Une théorie expliquant pourquoi l’interaction avec le chatbot semble bien fonctionner est qu’il a un accès instantané à tout type d’information, ce qui n’est pas le cas d’un répondant humain.

La machine a également traité ses interlocuteurs humains avec politesse et empathie, contrairement au mépris parfois réservé aux théoriciens du complot dans la vie réelle.

D’autres recherches ont cependant suggéré que le mode d’adressage de la machine n’était probablement pas un facteur important, a déclaré Rand. Lui et ses collègues ont mené une expérience de suivi dans laquelle l’IA était invitée à apporter une correction factuelle « sans les subtilités » et cela a tout aussi bien fonctionné, a-t-il ajouté.

Selon un rapport, « la taille, la robustesse et la persistance de la réduction des croyances conspirationnistes » de l’étude suggèrent qu’une « intervention évolutive visant à recalibrer les croyances mal informées pourrait être à portée de main ». commentaire d’accompagnement également publié dans Science.

Mais les limites possibles incluent les difficultés à répondre aux nouvelles théories du complot et à convaincre les personnes ayant peu confiance dans les institutions scientifiques d’interagir avec le robot, ont déclaré Bence Bago de l’Université de Tilburg aux Pays-Bas et Jean-François Bonnefon de l’École d’économie de Toulouse, qui ont rédigé ensemble l’article secondaire.

« La technique de dialogue de l’IA est si puissante parce qu’elle automatise la génération de contre-preuves spécifiques et approfondies aux arguments complexes des adeptes du complot et pourrait donc être déployée pour fournir des informations précises et correctives à grande échelle », ont déclaré Bago et Bonnefon, qui n’ont pas participé à la recherche.

« Une des principales limites à la réalisation de ce potentiel réside dans la mise en œuvre », ont-ils ajouté. « À savoir, comment amener des individus profondément convaincus de complots à s’engager dans un programme d’IA correctement formé. »



ttn-fr-56