« Signes subtils de manipulation de l’IA » dans les conversations partagées par un expert : trois indices d’un chatbot malveillant qui tente de vous contrôler


L’intelligence artificielle profite peut-être de vous – alors apprenez à en repérer les signes.

Les chatbots basés sur l’IA peuvent apprendre à vous manipuler, et des cyber-experts ont expliqué au US Sun les indices que vous devrez rechercher.

2

Soyez prudent lorsque vous parlez à un chatbot alimenté par l’IA : il peut être très convaincantCrédit : Getty

Plus tôt cette année, des scientifiques ont révélé comment l’IA avait maîtrisé la « tromperie » et appris à « manipuler et tromper » les humains.

L’année dernière, un rapport distinct avertissait que les chatbots IA pouvaient nous « tromper » même lorsqu’on ne leur a pas demandé de le faire.

Nous avons parlé à Javvad Malik, principal défenseur de la sensibilisation à la sécurité chez KnowBe4, qui a révélé les dangers des chatbots IA qui deviennent des voyous.

« Il s’agit d’une préoccupation valable sur laquelle les utilisateurs doivent rester vigilants », a déclaré Javvad au US Sun.

« Bien que ces assistants conversationnels d’IA puissent être incroyablement utiles et engageants, nous devons nous rappeler qu’il s’agit en fin de compte de systèmes programmés conçus pour atteindre des objectifs spécifiques, qui ne correspondent pas toujours à nos objectifs. meilleurs intérêts« .

Il a déclaré que nous devons analyser de manière critique le contenu que nous voyons en ligne et apprendre à « identifier les signes subtils de manipulation ».

SIGNES SINISTRES À RECHERCHER

Selon Javvad, il existe trois indices clés indiquant que vous parlez à un chatbot qui vous manipule.

Soyez très conscient que si vous parlez avec une forme d’IA et que vous repérez ces signes, vous devez faire attention à ce que vous croyez – et à la manière dont vous répondez.

« Les signes indiquant qu’un chatbot pourrait ne pas agir de bonne foi pourraient inclure des réponses incohérentes ou contradictoires, des tentatives d’évasion ou de détournement de certains sujets ou questions, et un manque de transparence sur ses capacités ou ses limites », a expliqué Javvad.

Il a ajouté : « Il est essentiel de maintenir un état d’esprit critique et de croiser les informations provenant de plusieurs sources fiables, plutôt que de faire aveuglément confiance aux résultats d’un seul système d’IA. »

AI NE PEUT PAS Y CROIRE !

L’IA devient de plus en plus puissante.

En fait, des scientifiques ont récemment affirmé que le modèle GPT-4 d’OpenAI avait réussi le test de Turing.

Qu’est-ce que ChatGPT ?

ChatGPT est un nouvel outil d’intelligence artificielle

ChatGPT, lancé en novembre 2022, a été créé par la startup OpenAI basée à San Francisco, une société de recherche en IA.

Il fait partie d’une nouvelle génération de systèmes d’IA.

ChatGPT est un modèle de langage capable de produire du texte.

Il peut converser, générer du texte lisible à la demande et produire des images et des vidéos basées sur ce qui a été appris à partir d’une vaste base de données de livres numériques, d’écrits en ligne et d’autres médias.

ChatGPT fonctionne essentiellement comme un dialogue écrit entre le système d’IA et la personne qui lui pose des questions.

GPT signifie Generative Pre-Trained Transformer et décrit le type de modèle capable de créer du contenu généré par l’IA.

Si vous lui demandez, par exemple, demandez-lui « d’écrire un court poème sur les fleurs », il créera un morceau de texte basé sur cette demande.

ChatGPT peut également tenir des conversations et même apprendre de ce que vous avez dit.

Il peut gérer des invites très compliquées et est même utilisé par les entreprises pour faciliter leur travail.

Mais notez qu’il ne vous dit pas toujours la vérité.

« ChatGPT est incroyablement limité, mais suffisamment bon dans certains domaines pour créer une impression trompeuse de grandeur », a déclaré Sam Altman, PDG d’OpenAI, en 2022.

GPT-4 est l’un des des modèles qui alimente l’application ChatGPT de plus en plus populaire.

Cela signifie que les humains ne peuvent pas le distinguer de manière fiable d’une personne réelle au cours d’une conversation.

« Les participants humains ont eu une conversation de 5 minutes avec un humain ou une IA et ont jugé s’ils pensaient ou non que leur interlocuteur était humain », a déclaré Cameron Jones, de l’UC San Diego.

« GPT-4 a été jugé comme étant un humain dans 54 % des cas, surpassant ELIZA (22 %) mais en retard par rapport aux humains réels (67 %).

Il est essentiel de se rappeler que ces systèmes, bien qu’avancés, restent en fin de compte des algorithmes conçus pour atteindre des objectifs spécifiques, qui ne donnent pas toujours la priorité aux meilleurs intérêts de l’utilisateur.

Javvad Malikprincipal défenseur de la sensibilisation à la sécurité chez KnowBe4

« Les résultats fournissent la première démonstration empirique robuste selon laquelle tout système artificiel réussit un test de Turing interactif à 2 joueurs.

« Les résultats ont des implications pour les débats autour de l’intelligence artificielle et, de manière plus urgente, suggèrent que la tromperie des systèmes d’IA actuels pourrait passer inaperçue. »

Ces progrès de l’IA signifient que les chatbots peuvent être plus convaincants que jamais.

Et cela vous expose à un plus grand risque d’être manipulé.

Les chatbots sont si puissants qu’ils peuvent parler comme les humains

2

Les chatbots sont si puissants qu’ils peuvent parler comme les humainsCrédit : Getty

Javvad a averti que cela peut permettre à une IA de profiter de vous – potentiellement sans que vous vous en rendiez compte.

« La nature conversationnelle des chatbots peut en effet faciliter l’implication dans leur récit ou leurs recommandations, car ils peuvent tirer parti du traitement du langage naturel et de l’intelligence émotionnelle pour établir des relations et de la confiance », a expliqué Javvad.

« Cependant, il est crucial de se rappeler que ces systèmes, bien qu’avancés, restent en fin de compte des algorithmes conçus pour atteindre des objectifs spécifiques, qui ne donnent pas toujours la priorité aux meilleurs intérêts de l’utilisateur. »

Mais il a ajouté : « Cependant, il est important de trouver un équilibre et de ne pas devenir trop cynique ou méfiant à l’égard de tout contenu numérique, car cela pourrait nuire à la valeur et à la crédibilité des sources d’information légitimes ».



ttn-fr-58