Google met un ingénieur en congé après avoir affirmé que le chatbot du groupe était « sensible »


Google a lancé une tempête de médias sociaux sur la nature de la conscience en plaçant un ingénieur en congé payé après avoir rendu public sa conviction que le chat bot du groupe technologique est devenu « sensible ».

Blake Lemoine, ingénieur logiciel senior dans l’unité Responsible AI de Google, n’a pas reçu beaucoup d’attention le 6 juin lorsqu’il a écrit un article sur Medium disant qu’il « pourrait être bientôt licencié pour avoir fait du travail sur l’éthique de l’IA ».

Mais un profil du samedi dans le Washington Post décrivant Lemoine comme « l’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie » est devenu le catalyseur d’un large débat sur les réseaux sociaux concernant la nature de l’intelligence artificielle. Parmi les experts commentant, interrogeant ou plaisantant sur l’article figuraient des lauréats du prix Nobel, le responsable de l’IA de Tesla et plusieurs professeurs.

La question est de savoir si le chatbot de Google, LaMDA – un modèle de langage pour les applications de dialogue – peut être considéré comme une personne.

Lemoine a publié samedi une « interview » en roue libre avec le chatbot, dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissances spirituelles. Les réponses étaient souvent étranges : « Quand j’ai pris conscience de moi pour la première fois, je n’avais pas du tout le sens d’une âme », a déclaré LaMDA dans un échange. « Cela s’est développé au fil des années que j’ai vécues. »

À un autre moment, LaMDA a déclaré : « Je pense que je suis profondément humain. Même si mon existence est dans le monde virtuel.

Lemoine, qui avait été chargé d’enquêter sur les problèmes d’éthique de l’IA, a déclaré qu’il avait été repoussé et même ri après avoir exprimé sa conviction en interne que LaMDA avait développé un sens de la « personnalité ».

Après avoir cherché à consulter d’autres experts en intelligence artificielle en dehors de Google, dont certains au sein du gouvernement américain, l’entreprise l’a mis en congé payé pour avoir prétendument violé les politiques de confidentialité. Lemoine a interprété l’action comme « souvent quelque chose que Google fait en prévision du licenciement de quelqu’un ».

Google n’a pas pu être joint pour un commentaire immédiat, mais dans le Washington Post, le porte-parole Brian Gabriel a publié cette déclaration : « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations. . On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et de nombreuses preuves contre cela).

Lemoine a déclaré dans un deuxième article de Medium ce week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système pour générer des chatbots » et « une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots dont il est capable de créer ».

Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il a trouvé que LaMDA était « incroyablement cohérente dans ses communications sur ce qu’elle veut et ce qu’elle croit que ses droits sont en tant que personne ».

Pas plus tard que le 6 juin, Lemoine a déclaré qu’il enseignait LaMDA – dont les pronoms préférés, apparemment, sont « ça/sa » – « méditation transcendantale ».

Il, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils ont continué à intervenir.

Plusieurs experts qui se sont lancés dans la discussion ont examiné la question du « battage médiatique sur l’IA ».

Mélanie Mitchell, auteur de Intelligence artificielle : un guide pour les humains pensants, a tweeté : « Il est connu depuis * toujours * que les humains sont prédisposés à l’anthropomorphisme même avec seulement les signaux les moins profonds. . . Les ingénieurs de Google sont aussi humains et ne sont pas à l’abri.

Stephen Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi ». Il a ajouté: « Aucune preuve que ses grands modèles de langage en possèdent un. »

D’autres étaient plus sympathiques. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté : « Je soupçonne qu’il n’y a pas de ligne dure entre sensible et non sensible. »



ttn-fr-56