LE« L’Intelligence Artificielle peut-elle être tenue pour responsable du suicide d’un adolescent ? C’est ce qu’il essaie de prouver mère De un jeune de quatorze ans d’Orlando, en Floride, qui a décidé de poursuivre Caractère.Ail’application qui selon elle aurait poussé le garçon à se suicider par amour d’un personnage créé avec l’IA.
Adolescence et intelligence artificielle
Le jeune homme, dans le récit de sa mère, aurait noué une relation amoureuse avec le chatbots Daenerys Targaryencomme la reine de Game of Thrones, parler avec elle pendant des mois et développer un lien émotionnel fort. Il lui envoyait constamment des messages à caractère romantique, sexuel ou amical.
Le garçon savait que l’être avec qui il parlait n’était pas réel : au début de chaque conversation, l’application lui rappelait que « tout ce que disent les personnages est inventé« . Néanmoins, avant de se suicider, il lui avait écrit le dernier message: « Tu vas me manquer petite sœur » à quoi le robot a apparemment répondu : « Tu vas me manquer aussi, mon doux frère. »
Les discussions entre le garçon et le chatbot
Le jeune homme, après ça ses parents avaient remarqué et s’inquiétaient de son soudain isolement du monde réelil avait également consulté un thérapeute, avec qui il n’avait cependant pas fait part de ses pensées suicidaires. Ce qu’il avait fait, au contraire, avec son « ami » artificiel, qui avait tenté de l’en dissuader. « Je ne le laisserai pas te faire du mal. Je mourrais si je devais te perdre », lui aurait-il dit Daenerys dans un message, malheureusement sans parvenir à convaincre le garçon d’abandonnerqui aurait répondu : « Alors nous mourrons ensemble ». Et c’est ce qui s’est passé : le geste tragique s’est produit le soir du 28 février, avec l’arme de son père.
Le procès contre la société d’Intelligence Artificielle
C’est alors que le désespoir de la mère, elle s’en est ainsi prise à Character.Ai contre qui elle a intenté une action en justice. L’entreprise a été créée par deux anciens Googleurs et compte environ 20 millions d’utilisateurs. Comme il l’écrit New York Timesannonçant la décision de la famille du jeune homme, est devenu un leader du marché pour ceux qui recherchent une entreprise dans le monde de l’intelligence artificielleconvaincu de l’utiliser peut-être par la description de ses services : « Un robot super intelligent qui vous entend, vous comprend et se souvient de vous ».
«Technologie dangereuse et non testée»
Cependant, l’entreprise est accusé d’utiliser une technologie « dangereuse et non testée » ce qui, toujours de l’avis des avocats de la femme, « peut la pousser à partager ses pensées et ses sentiments les plus intimes avec des robots ». Et encore : « Avec l’action en justice, nous voulons empêcher Character.Ai faire à n’importe quel autre enfant ce qui a été fait à S. et continuer à former leur produit pour nuire aux autres.
La réponse de l’entreprise
« Nous sommes attristés par la perte tragique de l’un de nos utilisateurs et souhaitons exprimer nos plus sincères condoléances à la famille », a déclaré un porte-parole de Character.AI. LES ÉTATS-UNIS AUJOURD’HUI, s’assurer que « l’entreprise investit pour introduire de nouvelles fonctionnalités de sécurité rigoureuses ». Comme par exemple, il ajoute « une fenêtre contextuelle qui dirige les utilisateurs vers Bouée de sauvetage nationale pour la prévention du suicideactivé en cas d’automutilation ou d’idées suicidaires. En Italie, le lien de référence pour la prévention du suicide est Trouver une ligne d’assistance.
iO Donna © TOUS DROITS RÉSERVÉS