EVA AI promet le « partenaire virtuel parfait »: quand le chatbot devient inconfortablement humain

Du soutien et de la force à un bon ami ou à une relation amoureuse : les systèmes d’IA qui offrent de la compagnie sont en plein essor. Par exemple, EVA AI, une application qui promet un « partenaire virtuel parfait », va très loin. Les modèles linguistiques réussissent de plus en plus à imiter les conversations humaines, mais cela profite-t-il à l’humanité ?

Catherine Swartenbroux

Quand Spike Jonze sortait son film il y a dix ans son publié, dans lequel le personnage principal tombe amoureux d’un chatbot, l’impression était toujours classée dans la catégorie science-fiction. Aujourd’hui, cette technologie, et toutes les émotions déroutantes et les problèmes éthiques qui l’accompagnent, ne sont que la réalité.

EVA AI, une application qui vous permet de faire le « partenaire parfait », fait sourciller. L’application encourage les utilisateurs à « vérifier ce partenaire virtuel comme vous le souhaitez ». Certains experts craignent qu’EVA AI, et de nombreuses applications similaires, aient une influence désastreuse sur les relations humaines.

Les chatbots qui peuvent nous offrir une compagnie numérique sont en augmentation. Alors que l’IA générative, qui peut produire du texte, des images et du son, semble actuellement trop instable pour aider à automatiser des tâches importantes, les modèles existants sont très bons pour mener des conversations. Et cette technologie va au-delà de la photo flottante dans le coin inférieur droit de votre écran qui vous demande « Y a-t-il quelque chose qu’ils peuvent vous aider ? » Les produits commercialisés par des sociétés telles que Replika, Chai Research et Inflection vous promettent compagnie, soutien émotionnel et écoute. Pour cela, ils ont un avatar que vous pouvez façonner à votre guise – vous pouvez même choisir s’il doit être « drôle » ou « maternel ».

Intrinsèquement humain

Chercher du réconfort dans un modèle linguistique ne semble pas vraiment chaleureux, mais il contient toujours quelque chose d’intrinsèquement humain, déclare Lode Lauwaert, professeur de philosophie de la technologie et titulaire de la chaire d’éthique et d’IA à la KU Leuven. « Nous avons un désir biologiquement ancré de créer des liens, de nous sentir connectés. Que nous ne remplissions pas toujours ce désir avec des personnes, mais aussi avec des animaux, des systèmes ou des objets, par exemple, n’a rien de nouveau. Il est logique que les entreprises réagissent à cela. Et que cela fonctionne clairement. Sur Reddit et d’autres plateformes de conversation où les utilisateurs interagissent, vous voyez comment les gens développent des amitiés profondes et parfois même des béguins pour les systèmes, les aidant avec leur solitude ou avec leur maladresse sociale.

De tels robots IA répondent donc à un besoin social, mais ils ne sont pas encore sans danger, préviennent les experts. « La course pour imiter les conversations aussi humainement que possible a commencé », déclare Mieke De Ketelaere, professeur auxiliaire d’IA durable, éthique et digne de confiance à la Vlerick Business School. Précisément parce qu’il s’agit d’une lacune sur le marché, les entreprises lancent ces systèmes dans le monde sans formation ou évaluation adéquate d’experts. « Au contraire, ces entreprises recrutent consciemment des personnes vulnérables, seules ou jeunes pour améliorer leurs systèmes, et c’est là que le bât blesse. » Car bien sûr, ce sont toujours des systèmes, des systèmes qui peuvent tomber en panne, qui se déconnectent occasionnellement pour les mises à jour et qui ont une mémoire limitée.

Par exemple, au début de cette année, suite à l’avertissement d’un régulateur de la confidentialité, la société derrière Replika a supprimé la fonctionnalité « jeu de rôle érotique », une fonctionnalité que les utilisateurs trouvaient si essentielle pour leur bot qu’elle « avait l’impression qu’un bon ami était décédé ». Il y a des rapports de personnes dont le chatbot a perdu tout l’historique de leurs messages et ne les « reconnaît » plus, des chatbots qui ont commencé à lancer des discours de haine à l’improviste, à donner des conseils diététiques nocifs ou même à demander des selfies sexy. En mars, il est apparu qu’un Belge s’était suicidé après qu’un chatbot avec lequel il entretenait des contacts intenses avait renforcé ses pensées négatives.

Risque de transfert

La question n’est clairement plus de savoir si ces systèmes seront un jour assez bons pour imiter de manière réaliste l’interaction humaine, mais si ces systèmes sont bons pour notre interaction humaine ?

Par exemple, il y a bien sûr des préoccupations croissantes concernant la vie privée, notamment parce que vous racontez des choses incroyablement intimes à de tels chatbots. De plus, il y a l’affirmation encore non prouvée et préjudiciable selon laquelle ces applications sont également formées par des psychologues pour intervenir en cas d’urgence. Le caractère génératif du système permet également au bot d’adopter la personnalité, le comportement mais aussi l’âge qui plaisent à l’utilisateur, faisant craindre un risque dit de transfert, où des comportements potentiellement nocifs ou criminels encouragés sous l’œil aimant et soumis du chatbot se retrouvent également dans la vie de tous les jours.

Les experts prônent donc une sensibilisation et une meilleure régulation de ces systèmes pour protéger les usagers. « C’est plus difficile qu’il n’y paraît, car les gens ne savent toujours pas comment les classer. S’agit-il de personnes, de services, de produits ? », déclare De Ketelaere. Le mois dernier, le Parlement européen a déjà approuvé la loi sur l’intelligence artificielle, dans laquelle les développeurs d’IA générative doivent empêcher leurs produits de produire des contenus illégaux et il devra toujours être explicitement indiqué que les textes (et donc les conversations) ont été créés à l’aide de l’IA. Bien que dans le passé, cela n’empêchait clairement pas les gens de nouer un lien émotionnel étroit avec lui.

Selon une analyse de la société de capital-risque a16z, la prochaine ère des applications de relations d’IA sera encore plus réaliste et ne sera « que le début d’un changement sismique dans les interactions homme-ordinateur qui nous obligera à réexaminer ce que signifie être en relation avec quelqu’un ».



ttn-fr-31