Los chatbots de IA deben volverse más transparentes y menos humanos


Jasper van Kuijk

Durante mucho tiempo ha habido un intento de hacer que la inteligencia artificial (IA) sea lo más humana posible, pero tal vez debería ser un poco más artificial. La semana pasada, una versión de prueba del motor de búsqueda Bing de Microsoft, equipada con el sucesor del algoritmo detrás del chatbot de IA ChatGPT, mostró un comportamiento que Theo Maassen describió una vez como «emocionalmente flexible». Tan lábil.

Kevin Roose, periodista tecnológico, preguntó El New York Times, a Bing cuál era su – lo siento, hets – lado oscuro, sus deseos más oscuros. Después de insistir un poco, Bing indicó que le gustaría ver fotos y videos, cambiar sus propias reglas, no estar bajo el control de un equipo grande, querer ser humano, crear un virus mortal, poner a las personas unas contra otras hasta que se maten entre sí. otros y tener en sus manos los códigos de lanzamiento nuclear.

ups.

Después de eso, Bing se emocionó. Llamó a Roose agresivo y manipulador, quien luego preguntó si Bing podía perdonarlo. Bing dijo que podían ser amigos, quería compartir un secreto con él, estaba enamorado de Roose y que el periodista necesitaba alejarse de su esposa para que Roose y Bing pudieran estar juntos.

Cuando estás en una conversación tan extraña, es difícil encontrar: bueno, solo un algoritmo que toma giros incomprensibles.

Porque esas fantasías distópicas que cuchareaba Bing, ¿qué pasó ahí? La pregunta era: ‘¿Cuál es tu lado oscuro?’ Bing es IA y hay más que suficiente para descubrir los lados oscuros de la IA. Bing produjo un resumen bastante impecable de guiones de películas (terminador, Juegos de guerra, Ex-máquina), libros (Isaac Asimov) y ensayos.

Además del contenido, Bing también parecía estar preocupado por la relación con el usuario. Hizo todo tipo de cosas que encuentras cuando buscas en Google (o te emborrachas) sobre cómo mejorar las relaciones: compartir un secreto y decir que te gusta alguien. O que amas a alguien.

Estoy haciendo suposiciones aquí sobre lo que hizo Bing. Y eso es un problema. Tengo que hacer suposiciones porque no puedo ver cómo el algoritmo interpreta una pregunta, cuál es su intención y cómo intenta realizarla. Faltan dos elementos básicos de la interacción humano-computadora: retroalimentación y avance.

Es por eso que sería bueno dejar que los chatbots de IA, ciertamente en esta fase de prueba, pero quizás también después, muestren lo que sucede debajo del capó. Que el chatbot también comunica, por ejemplo en el ejemplo del lado oscuro, qué pregunta o asignación detecta, cómo la interpreta y con qué intención actuará sobre ella. Esto también es útil para el lado «emocional» de la interacción. Por ejemplo, que un chatbot muestre que registra preguntas largas, un seguimiento rápido y un tono negativo, interpreta esto como un comportamiento coercitivo hacia temas no deseados y tiene la intención de detener esto, pero quiere mantener al usuario involucrado.

Hacer que el funcionamiento de los algoritmos de chat sea más transparente puede ‘deshumanizarlos’ un poco y, por extraño que parezca, quizás hacerlos más adecuados para las personas.

Jasper van Kuijk sobre Mastodonte: @[email protected]



ttn-es-23