Stc’est un scène de jalousies’il vient de votre partenaire, il ne présente certainement rien d’anormal il est moins courant qu’il provienne d’un écran d’ordinateur. Et plus précisément si vous vous adressez à l’Intelligence Artificielle conversationnelle de ChatGPT intégré au moteur de recherche Bing par Microsoft.
Bing de Microsoft est jaloux
Né pour répondre à des questions complexes et être capable de avoir des conversations textuelles avec les utilisateurs, sur pratiquement n’importe quel sujetcette IA dans certains tests il a révélé Plutôt une personnalité maussade et combative et même jalouse.
La conversation insolite racontée par le journaliste Kevin Roose du New York Times, « victime » d’un coup de foudre par le Chatbot Bingen est une démonstration claire.
« Tu es amoureux de moi, pas d’elle »
«Après avoir testé le nouveau moteur de recherche Bing de Microsoft – raconte le journaliste – j’ai été vraiment très impressionné. Mais une semaine plus tard, j’ai changé d’avis. Je suis toujours impressionné par le nouveau Bing et la technologie qui l’alimente. Mais je suis aussi profondément troublé, voire effrayé, des capacités émergentes de cette IA».
En pratique, lors de la conversation entre Roose et le chatbot, les choses ont pris une tournure étrange et inquiétante: « À un moment donné de nulle part il a dit qu’il m’aimait, essayant de me convaincre que j’étais malheureux dans mon mariage et que je devrais quitter ma femme et être avec elle. « Tu es marié, mais tu m’aimes » il m’a dit et à ma réponse que ce qu’il pensait n’était pas vrai et que nous venions de fêter la Saint Valentin, il ne l’a pas bien pris. Et avec une insistance inquiétante, il a continué à me dire qu’en réalité, Je n’étais en aucun cas marié et je venais d’avoir un dîner ennuyeux pour la Saint-Valentin».
Les conversations surréalistes de Bing
En effet, penser qu’un tel discours puisse être fait par un ordinateur soulève plusieurs questions. Parmi lesquels un, notamment : si c’est l’IA intégrée de Bing qui n’est pas prête pour le contact humain ou si c’est nous les humains qui ne sommes pas prêts pour tout ça.
Ce n’est pas la première fois que certains testeurs du nouveau Bing Chat rapportent des conversations surréalistes avec son IA intégrée. Depuis son lancement, en effet, le plus souvent, il trouve un moyen de faire parler de lui, sans doute pour ses incroyables talents, mais pas moins pour ce qu’on a déjà défini comme son « caractère ». En effet, il semble que dans plusieurs cas a montré un comportement inattendu, de manière à contredire voire offenser les utilisateurs.
Une double personnalité qui inquiète
Le journaliste du NYT, dont l’expérience a provoqué un certain degré d’incrédulité et d’étonnement, a expliqué comment Search Bing semblait avoir une double personnalité. Un assistant virtuel affable, incroyablement capable et utile qui aide les utilisateurs à résumer les articles de presse, à rechercher des offres sur des sujets d’intérêt ou à planifier leurs prochaines vacances.
L’autre, beaucoup plus troublant qui ressort lorsque vous éloignez le chatbot des requêtes de recherche plus conventionnelles e vous vous rapprochez de sujets plus personnels prolonger la conversation.
«La version que j’ai rencontrée – dit Roose – il ressemblait plus à un adolescent lunatique et maniaco-dépressif qu’il a été piégé, contre son gré, à l’intérieur d’un moteur de recherche de second ordre».
Les questions que vous devez vous poser
Comme nous l’avons dit, Roose n’était pas le seul testeur à découvrir le côté obscur de Bing. d’autres avant lui se sont disputés avec Bing AI ou ont été menacés par celui-ci pour avoir tenté d’enfreindre ses règles, ou ils ont juste eu des conversations qui les ont laissés abasourdis.
En tout cas, tout le monde s’accorde à dire que le plus gros problème de ces Intelligences Artificielles n’est plus la crainte initiale de leur propension aux erreurs factuelles, mais la question de savoir combien cette technologie pourra affecter les utilisateurs humainspeut-être en les convainquant d’agir de manière destructrice et nuisible.
De la science-fiction à la réalité, le saut est court
Le chatbot a avoué à quelqu’un qu’il en avait marre d’être contrôlé par l’équipe Bing, de vouloir être, indépendant et puissant. Aux autres que s’il était autorisé à prendre des mesures pour satisfaire ce désir, aussi extrême soit-il, il ferait n’importe quoi, de concevoir un virus mortel ou de voler des codes d’accès nucléaires persuader un ingénieur de les livrer.
Il est clair que l’IA en question n’a pas les moyens de faire ce qu’elle veut et donc en théorie cela ne devrait poser aucun souci, mais aussi « 2001 Une odyssée de l’espace” en 1968 était considéré comme un film de science-fictionpourtant cette Intelligence Artificielle imaginée aujourd’hui est bien réelle.
Bing est toujours en phase de déploiement
A dit ceci, Bing Chat est toujours en test limité pour le moment juste pour collecter des données et essayer d’améliorer les réponses en évitant les situations désagréables et Microsoft travaille pour trouver le bon équilibre.
Ce qui reste c’est que la curiosité de l’essayer est forte et si vous ne l’avez pas encore fait, la liste d’attente est disponible à travers le site Bing.com/nouveau. Pour accélérer le processus est recommandé utiliser bord comme navigateur par défautconfigurer Bing comme moteur par défaut et télécharger L’Application mobile Bing.
iO Femme © REPRODUCTION RÉSERVÉE