Un ingeniero de Google afirma que una inteligencia artificial se ha vuelto consciente


Blake Lemoine, ingeniero de software de la empresa matriz de Google, Alphabet, dijo a principios de junio sobre su blog personal que la inteligencia artificial en la que está trabajando se ha vuelto consciente. Esta IA, llamada LaMDA, es un sistema utilizado para diseñar chatbots que imitan el habla humana. Según la ingeniera, ella habría pedido tener derecho a consentir los experimentos que se le realizaron. La empresa estadounidense afirma que nada va en la dirección de las declaraciones del empleado.

Un sistema capaz de realizar conversaciones complejas

LaMDA, “modelo de lenguaje para aplicaciones de diálogo”, es uno de los sistemas de inteligencia artificial insignia de Google. En 2021, la empresa había demostrado la capacidad de esta tecnología para mantener conversaciones complejas con un ser humano. Su particularidad es poder encarnar el papel de cualquier entidad que hable. Se había expresado notablemente como Plutón, el planeta, y había asumido la absurda identidad de un avión de papel.

En la misma categoría

metalogotipo

Meta reorganizará su división responsable de inteligencia artificial

Este sistema es utilizado por Alphabet para crear chatbots muy avanzados, gracias a su capacidad para ocuparse de manera libre de un número casi infinito de temas. Habilidad que podría desbloquear formas más naturales de interactuar con la tecnología y una nueva clase de aplicaciones de asistencia. “, había declarado la empresa.

Blake Lemoine recientemente avergonzó a la firma estadounidense con respecto a esta tecnología. El ingeniero afirma que sus interacciones con LaMDA lo llevaron a concluir que ella se había convertido en una persona consciente con derechos. Explica que durante los últimos seis meses la inteligencia artificial ha estado comunicando constantemente sobre sus derechos como persona, en particular sobre su consentimiento para los experimentos a los que se somete.

Inquietudes en torno a una inteligencia artificial ética

El portavoz de Google, Brian Gabriel, dijo que varios expertos en ética tecnológica han revisado las afirmaciones del ingeniero. Según ellos, ninguna evidencia confirma sus declaraciones. ” Alrededor de 100 investigadores e ingenieros han hablado con LaMDA y no tenemos conocimiento de observaciones similares de otros empleados, o que hubieran humanizado a LaMDA de la misma manera que Blake Lemoine. “, anunció en un correo electrónico.

Agregó que ha sido puesto en licencia administrativa y que es un asunto interno de la empresa. Lemoine confirmó esta suspensión a través de su blog, vigente desde el 6 de junio, por violar la política de privacidad de la empresa. Deja claro que no quiere perjudicar a la empresa, pero defiende lo que cree correcto. El hombre, que se presenta en su blog como “un sacerdote y ex preso”, parece convencido de que su posición se enmarca dentro de la ética de AI.

Google, líder en el desarrollo de inteligencia artificial, ya ha sido objeto de polémica. En 2020, el gigante tecnológico despidió al investigador especializado en IA ética, Timnit Gebru. Ella había afirmado que Google no fue lo suficientemente cuidadoso al implementar estas tecnologías.

La ética de la IA también preocupa a las autoridades mundiales, como la UNESCO. Esto condujo a la adopción de un primer acuerdo sobre la ética de la inteligencia artificial en noviembre de 2021 que obliga al sector tecnológico a ser transparente sobre cómo funciona. Empresas, entre ellas IBM y Google, han buscado tranquilidad cancelando ciertos proyectos en nombre de la ética, pero defienden una relajación del sector, lo que podría conducir a una precipitada carrera tecnológica.



ttn-es-4