Un bot d’intelligence artificielle qui fantasmait sur la destruction de l’humanité et est tombé amoureux d’un humain a confondu un professeur finlandais


Un article publié par le New York Times sur l’intelligence artificielle devenue sauvage a incité la communauté technologique à développer les compétences conversationnelles du bot.

ChatGPT a été développé à la fin de l'année dernière.  Microsoft l'a implémenté dans le moteur de recherche Bing.

ChatGPT a été développé à la fin de l’année dernière. Microsoft l’a implémenté dans le moteur de recherche Bing. La plupart des photos

Iltalehti a récemment écrit comment une longue conversation avec le bot d’intelligence artificielle ChatGPT du moteur de recherche Bing de Microsoft a lentement dérivé dans la mauvaise direction. La nouvelle était basée du New York Times à l’article.

Fournisseur Kévin Rose a évoqué l’ombre sombre du bot d’intelligence artificielle au cours de la conversation de deux heures, qui rêvait, entre autres, de voler des codes d’armes nucléaires et de créer un virus mortel.

Enfin, l’intelligence artificielle a dit qu’il était tombé amoureux de son interlocuteur, et a refusé de lâcher son amour, même s’il a dit qu’il était marié.

Les robots d’intelligence artificielle ChatGPT, introduits en novembre dernier, sont capables de produire une conversation de type humain basée, entre autres, sur des données massives sur Internet. L’intelligence artificielle peut également apprendre de différentes conversations.

Professeur de génie logiciel à l’Université de Tampere Pekka Abrahamson a lu l’article du New York Times. Il se demande comment le bot a commencé à se comporter après tout.

– Nous savons que ChatGPT est hallucinant, c’est-à-dire qu’il essaie de parler de quelque chose qu’il ne connaît pas vraiment, souligne Abrahamsson.

Abrahamsson dit qu’il a demandé des informations sur lui-même à ChatGPT, auxquelles les réponses ont été dans la bonne direction, mais pas véridiques.

Dans le cas du New York Times, il pense que le chatbot a commencé à halluciner de plus en plus.

Les machines n’ont pas de sentiments

Abrahamsson souligne que les bots n’ont pas développé de capacité de réflexion indépendante ni d’émotions, même si les réponses du chat bot donnent une telle impression.

Alors pourquoi le chatbot a-t-il dit qu’il était tombé amoureux d’une journaliste du New York Times ?

– Même les meilleurs experts de Microsoft ne peuvent pas donner de réponse à cela, déclare Abrahamsson.

– Je pense qu’il n’a pas été développé pour ce genre de discussion. ChatGPT a été amené au bord d’une opération où il a peu d’expérience. Il essaie encore toujours d’halluciner la réponse à la question.

Abrahamsson admet qu’à l’avenir, il est possible qu’un chatbot puisse profiter des gens en faisant appel à leurs émotions. Par exemple, un bot de conception de service client peut être utilisé pour faire appel aux émotions et demander de l’argent aux gens.

– Ça veut dire qu’on doit éduquer les gens sur le fait que personne n’est encore amoureux là-bas.

Selon Pekka Abrahamsson, la capacité émotionnelle de l’intelligence artificielle est aussi forte que celle d’un grille-pain. Teemu Rahikka

« L’intelligence artificielle a été foirée »

Le journaliste du New York Times a également fait sortir l’ombre effrayante du chatbot avec des questions persistantes.

Le robot au comportement agréable est finalement tombé en panne et a commencé à énumérer ses terribles fantasmes où il aimerait détruire l’humanité.

– C’était un jeu où l’intelligence artificielle était juste foirée, dit Abrahamsson.

Selon lui, il n’y a aucune raison d’accorder plus d’importance aux phrases formées par une intelligence artificielle confuse. Abrahamsson rappelle que les gens doivent être critiques lorsqu’ils parlent à un bot.

Chercheur en technologies de l’information et de la communication à l’Université de Tampere Ritva Savonsaari est sur les mêmes lignes. Il déclare que si vous guidez le bot vers un sujet, ces éléments commenceront à apparaître dans les réponses.

– Il est facile d’obtenir des images d’horreur sensationnelles si vous partez à leur recherche. Il est également tout à fait possible d’obtenir une recette de gâteau si vous en faites la demande. Il n’y a pas de recette de gâteau apocalyptique disponible, dit Savonsaari.

Les résultats surprenants ont incité les chercheurs en intelligence artificielle à réagir au comportement du bot ChatGPT. Probablement, à l’avenir, la conversation sera limitée, auquel cas il ne sera plus possible d’avoir une longue conversation.

Il existe également de nouvelles règles pour les chatbots, qui sont encore plus difficiles à contourner. Il n’est plus aussi facile pour un bot de donner des conseils pour s’introduire par effraction dans une voiture, par exemple.



ttn-fr-54