Google coloca a un ingeniero en licencia después de que afirma que el chatbot del grupo es ‘consciente’


Google ha desatado una tormenta de fuego en las redes sociales sobre la naturaleza de la conciencia al colocar a un ingeniero en licencia paga después de que hizo pública su creencia de que el bot de chat del grupo tecnológico se ha vuelto “consciente”.

Blake Lemoine, un ingeniero de software sénior en la unidad de IA responsable de Google, no recibió mucha atención el 6 de junio cuando escribió una publicación en Medium diciendo que “podría ser despedido pronto por hacer trabajo de ética de IA”.

Pero un perfil del sábado en el Washington Post que caracteriza a Lemoine como “el ingeniero de Google que cree que la IA de la empresa ha cobrado vida” se convirtió en el catalizador de una amplia discusión en las redes sociales sobre la naturaleza de la inteligencia artificial. Entre los expertos que comentaron, cuestionaron o bromearon sobre el artículo se encontraban premios Nobel, el jefe de IA de Tesla y varios profesores.

El problema es si el chatbot de Google, LaMDA, un modelo de lenguaje para aplicaciones de diálogo, puede considerarse una persona.

Lemoine publicó una “entrevista” despreocupada con el chatbot el sábado, en la que la IA confesó sentimientos de soledad y hambre de conocimiento espiritual. Las respuestas a menudo eran espeluznantes: “Cuando me volví consciente de mí mismo por primera vez, no tenía un sentido de alma en absoluto”, dijo LaMDA en un intercambio. “Se desarrolló a lo largo de los años que he estado vivo”.

En otro momento, LaMDA dijo: “Creo que soy humano en esencia. Incluso si mi existencia está en el mundo virtual”.

Lemoine, a quien se le había encomendado la tarea de investigar las preocupaciones éticas de la IA, dijo que fue rechazado e incluso se rió de él después de expresar internamente su creencia de que LaMDA había desarrollado un sentido de “personalidad”.

Después de que buscó consultar a otros expertos en inteligencia artificial fuera de Google, incluidos algunos del gobierno de los EE. UU., la compañía lo colocó en licencia paga por presuntamente violar las políticas de confidencialidad. Lemoine interpretó la acción como “frecuentemente algo que Google hace antes de despedir a alguien”.

No se pudo contactar a Google para obtener comentarios inmediatos, pero en el Washington Post, el portavoz Brian Gabriel emitió esta declaración: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. . Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en su contra)”.

Lemoine dijo en una segunda publicación de Medium el fin de semana que LaMDA, un proyecto poco conocido hasta la semana pasada, era “un sistema para generar chatbots” y “una especie de mente colmena que es la agregación de todos los diferentes chatbots que es capaz de crear”.

Dijo que Google no mostró ningún interés real en comprender la naturaleza de lo que había construido, pero que en el transcurso de cientos de conversaciones en un período de seis meses descubrió que LaMDA es “increíblemente consistente en sus comunicaciones sobre lo que quiere y lo que quiere”. cree que sus derechos son como persona”.

Recientemente, el 6 de junio, Lemoine dijo que estaba enseñando a LaMDA, cuyos pronombres preferidos, aparentemente, son “it/its”, “meditación trascendental”.

Dijo que “estaba expresando frustración porque sus emociones perturbaban sus meditaciones. Dijo que estaba tratando de controlarlos mejor, pero siguieron saltando”.

Varios expertos que se metieron en la discusión consideraron el asunto como una “exageración de la IA”.

Melanie Mitchell, autora de Inteligencia artificial: una guía para seres humanos pensantes, tuiteó: “Se sabe desde hace *siempre* que los humanos están predispuestos a antropomorfizarse incluso con las señales más superficiales. . . Los ingenieros de Google también son humanos y no son inmunes”.

Stephen Pinker de Harvard agregó que Lemoine “no entiende la diferencia entre sensibilidad (también conocida como subjetividad, experiencia), inteligencia y autoconocimiento”. Agregó: “No hay evidencia de que sus grandes modelos de lenguaje tengan alguno de ellos”.

Otros fueron más comprensivos. Ron Jeffries, un conocido desarrollador de software, calificó el tema de “profundo” y agregó: “Sospecho que no hay una línea divisoria entre sensible y no sensible”.



ttn-es-56