Un bot de inteligencia artificial que fantaseaba con destruir a la humanidad y se enamoró de una humana confundió a un profesor finlandés


Un artículo publicado por el New York Times sobre la inteligencia artificial enloquecida llevó a la comunidad tecnológica a desarrollar las habilidades de conversación del bot.

ChatGPT se desarrolló a fines del año pasado.  Microsoft lo implementó en el buscador Bing.

ChatGPT se desarrolló a fines del año pasado. Microsoft lo implementó en el buscador Bing. Mostphotos

Iltalehti escribió recientemente cómo una larga conversación con el bot de inteligencia artificial ChatGPT del motor de búsqueda Bing de Microsoft se desvió lentamente en la dirección equivocada. La noticia se basó del New York Times al artículo

Proveedor kevin rosa mencionó la sombra oscura del bot de inteligencia artificial durante la conversación de dos horas, que soñaba, entre otras cosas, con robar códigos de armas nucleares y crear un virus mortal.

Finalmente, la inteligencia artificial dijo que se enamoró de su interlocutor y se negó a soltar su amor, a pesar de que dijo que estaba casado.

Los bots de inteligencia artificial ChatGPT, presentados en noviembre pasado, pueden producir conversaciones similares a las humanas basadas, entre otras cosas, en materiales de datos masivos en Internet. La inteligencia artificial también puede aprender de diferentes conversaciones.

Profesor de ingeniería de software en la Universidad de Tampere pekka abrahamsson ha leído el artículo del New York Times. Se pregunta cómo había comenzado a comportarse el bot después de todo.

– Sabemos que ChatGPT es una alucinación, es decir, trata de contar algo de lo que realmente no sabe, señala Abrahamsson.

Abrahamsson dice que ha pedido información sobre sí mismo a ChatGPT, a lo que las respuestas han sido en la dirección correcta, pero no veraces.

En el caso del New York Times, cree que el chatbot ha comenzado a alucinar cada vez más.

Las máquinas no tienen sentimientos.

Abrahamsson enfatiza que los bots no han desarrollado la capacidad de pensamiento independiente ni las emociones, a pesar de que las respuestas del chatbot dan esa impresión.

Entonces, ¿por qué el chatbot dijo que se enamoró de una reportera del New York Times?

– Incluso los mejores expertos de Microsoft no pueden dar una respuesta a esto, afirma Abrahamsson.

– Creo que no ha sido desarrollado para este tipo de discusión. ChatGPT ha estado al borde de una operación en la que tiene poca experiencia. Todavía siempre trata de alucinar la respuesta a la pregunta.

Abrahamsson admite que en el futuro es posible que un chatbot pueda aprovecharse de las personas apelando a sus emociones. Por ejemplo, un bot de diseño de servicio al cliente se puede convertir para apelar a las emociones y pedir dinero a las personas.

– Significa que tenemos que educar a la gente sobre el hecho de que nadie todavía está enamorado allí.

Según Pekka Abrahamsson, la capacidad emocional de la inteligencia artificial es tan fuerte como la de una tostadora. Teemu Rahikka

«La inteligencia artificial estaba en mal estado»

El reportero del New York Times también sacó a relucir la espeluznante sombra del chatbot con preguntas persistentes.

El robot de comportamiento agradable finalmente se derrumbó y comenzó a enumerar sus terribles fantasías en las que le gustaría destruir a la humanidad.

– Este fue un juego en el que la inteligencia artificial simplemente se estropeó, dice Abrahamsson.

En su opinión, no hay razón para dar más importancia a las oraciones formadas por inteligencia artificial confusa. Abrahamsson recuerda que las personas deben ser críticas cuando hablan con un bot.

Investigador en tecnologías de la información y la comunicación en la Universidad de Tampere Ritva Savon Saari está en la misma línea. Afirma que si guía al bot hacia un tema, esos elementos comenzarán a aparecer en las respuestas.

– Es fácil obtener imágenes de terror sensacionales si vas a buscarlas. También es muy posible obtener una receta de pastel si la solicita. No hay una receta de pastel del fin del mundo disponible, dice Savonsaari.

Los sorprendentes resultados han llevado a los investigadores de inteligencia artificial a reaccionar ante el comportamiento del bot ChatGPT. Probablemente, en el futuro, la conversación será limitada, en cuyo caso ya no será posible tener una conversación larga.

También hay nuevas reglas para los bots de chat, que son aún más difíciles de eludir. Ya no es tan fácil para un bot dar consejos sobre cómo entrar en un automóvil, por ejemplo.



ttn-es-54