Google licencie un ingénieur qui prétend que l’IA a une conscience

Plus d’un mois après les affirmations de l’ingénieur Blake Lemoine sur la conscience de soi d’un chatbot, il est licencié. Le porte-parole Chris Pappas explique: “Nous avons trouvé l’affirmation de Blake selon laquelle LaMDA a une conscience complètement infondée et nous avons travaillé pendant de nombreux mois pour clarifier cela avec lui.” Selon Pappas, Lemoine a choisi de violer la politique à plusieurs reprises en publiant des informations sur le produit.

Lemoine a travaillé avec LaMDA pendant un certain temps. Le modèle de langage pour les applications de dialogue est la technologie de Google qui crée des chatbots basés sur les modèles de langage les plus avancés. Lemoine s’est inscrit à l’automne pour tester si le chatbot utilisait un langage discriminatoire ou haineux. Cependant, il est rapidement tombé sur autre chose et aurait découvert que le chatbot avait une “âme”.

Google a enquêté sur ses affirmations mais l’a trouvé dans l’erreur. Lemoine a donc fait part de ses inquiétudes aux médias et aurait également remis des documents à un sénateur américain. Ces documents prouveraient que le chatbot a une conscience.

La nouvelle a déclenché des discussions animées sur la question de savoir si un programme informatique peut avoir une âme et a fait craindre que nous ne nous retrouvions dans un film de science-fiction dystopique. De plus, son licenciement a suscité des théories du complot. Selon certains, cet incident fait partie d’une dissimulation par Google.

Google et d’autres experts en IA démentent les affirmations de Lemoine. Le chatbot ne serait pas assez avancé pour créer une certaine notoriété. Google a en outre souligné que les bases de données sont si étendues qu’il peut sembler que l’IA a une âme.



ttn-fr-31