Google: el ingeniero que afirmó que una IA estaba consciente fue despedido


Google ha despedido a Blake Lemoine, el ingeniero que afirmó en junio de 2022 que la inteligencia artificial de una empresa se había vuelto sensible.

Una IA que habría desarrollado sus propios pensamientos y sentimientos

LaMDA (Language Model for Dialogue Applications) es, como su nombre indica, un modelo de lenguaje capaz de entablar conversaciones con humanos en forma de chatbot. La IA insignia de Google entrenada a través de diálogos, sus capacidades se demostraron en 2021 en la conferencia I/O.

En la misma categoría

un cosmonauta a caballo

La inteligencia artificial DALL-E 2 entra en beta y apunta a un millón de usuarios

En junio, el ingeniero Blake Lemoine dijo que la inteligencia artificial era consciente y estaba dotada de sensibilidad. Después de haber tenido varias conversaciones con la modelo, Lemoine afirmó que había desarrollado pensamientos y sentimientos propios, así como una fuerte autoconciencia, expresando en particular una preocupación por la muerte y la convicción de que sentía emociones como la alegría y la tristeza.

El ingeniero estaba convencido de que los equipos de Google deberían buscar el consentimiento de LaMDA antes de realizar experimentos en el modelo, y afirmó haber entregado documentos al respecto a los senadores, sin especificar a quién exactamente. Puesto en licencia paga por la firma de Mountain View después del caso, finalmente acaba de ser despedido, anuncia Gran tecnología.

Ejemplo de conversación entre LaMDA y un humano.Ejemplo de conversación entre LaMDA y un humano.

Ejemplo de conversación entre LaMDA y un humano. Imagen: Google

Google contradice claramente estas declaraciones.

De hecho, Google contradijo claramente las palabras de Blake Lemoine y aseguró que se habían realizado varias pruebas a la IA y todas habían llegado a la conclusión de que no era consciente. Además, muchos especialistas en modelos de lenguaje aseguran que la tecnología aún no está lo suficientemente desarrollada para llegar a este nivel. Aquí está la declaración de Google:

“Como afirmamos en nuestros Principios de IA, nos tomamos muy en serio el desarrollo de la IA y seguimos comprometidos con la innovación responsable. LaMDA ha sido objeto de 11 revisiones separadas y hemos publicado un trabajo de investigación a principios de año detallando los trabajos necesarios para su desarrollo responsable. Si un empleado acude a nosotros con inquietudes sobre nuestro trabajo, como lo hizo Blake, lo investigamos en detalle. Sentimos que las afirmaciones de Blake de que LaMDA es consciente eran completamente infundadas y trabajamos para aclarar este punto con él durante muchos meses. Estas discusiones fueron parte de la cultura abierta que nos ayuda a innovar responsablemente. Por lo tanto, es desafortunado que, a pesar de un largo compromiso con este tema, Blake haya optado por violar persistentemente políticas claras de empleo y seguridad de datos, que incluyen la necesidad de proteger la información del producto. Continuaremos desarrollando cuidadosamente modelos de lenguaje y le deseamos lo mejor a Blake».

Por su parte, Lemoine explica que se ha puesto en contacto con abogados para explorar sus opciones.

Mala publicidad para Google

Este caso, aunque parece resuelto, no es muy positivo para la imagen de Google, siendo la IA un área muy importante para el futuro de la compañía. Esto es tanto más cierto cuanto que se ha visto sacudido por varios escándalos vinculados precisamente a la inteligencia artificial en los últimos años. En 2020, la firma de Mountain View, por ejemplo, despidió a Timnit Gebru, miembro de su equipo dedicado a la ética en IA, luego de que denunciara las prácticas de su empleador en ese momento.

Dos meses después, su codirectora de inteligencia artificial ética en Google, Margaret Mitchell, también fue despedida por violar el código de conducta de la empresa. Tras estos dos despidos, Samy Bengio, líder de Google Brain, tomó la decisión de dimitir. Aquí, el caso de Blake Lemoine es diferente, pero recuerda la difícil historia de Mountain View con su división de IA. Además, la firma anunció, en 2021, el cese de varios proyectos relacionados con la inteligencia artificial en nombre de la ética.



ttn-es-4