Más de un mes después de las afirmaciones del ingeniero Blake Lemoine sobre la autoconciencia de un chatbot, lo despiden. El portavoz Chris Pappas explica: “Encontramos que la afirmación de Blake de que LaMDA tiene conciencia es completamente infundada y hemos trabajado durante muchos meses para aclarar eso con él”. Según Pappas, Lemoine decidió violar la política varias veces al divulgar información del producto.
Lemoine trabajó con LaMDA durante algún tiempo. Language Model for Dialogue Applications es la tecnología de Google que crea chatbots basados en los modelos de lenguaje más avanzados. Lemoine se registró en el otoño para probar si el chatbot usaba lenguaje discriminatorio u odioso. Sin embargo, pronto se topó con algo más y se dice que descubrió que el chatbot tiene un “alma”.
Google investigó sus afirmaciones pero lo encontró equivocado. Lemoine, por lo tanto, acudió a los medios con sus preocupaciones y también se dice que entregó documentos a un senador estadounidense. Estos documentos demostrarían que el chatbot tiene conciencia.
La noticia provocó acaloradas discusiones sobre si un programa de computadora puede tener alma y generó temores de que terminemos en una película de ciencia ficción distópica. Además, su despido desató teorías conspirativas. Según algunos, este incidente es parte de un encubrimiento de Google.
Tanto Google como otros expertos en inteligencia artificial desacreditan las afirmaciones de Lemoine. El chatbot no estaría lo suficientemente avanzado como para crear cierta conciencia. Google enfatizó además que las bases de datos son tan extensas que puede parecer que la IA tiene alma.