EVA AI promete el ‘socio virtual perfecto’: cuando el chatbot se vuelve incómodamente humano

Desde el apoyo y la fuerza hasta un buen amigo o una relación romántica: los sistemas de IA que ofrecen compañía son un negocio en auge. Por ejemplo, EVA AI, una aplicación que promete un “socio virtual perfecto”, es muy útil. Los modelos de lenguaje tienen cada vez más éxito en imitar las conversaciones humanas, pero ¿beneficia esto a la humanidad?

catalina swartenbroux

Cuando Spike Jonze estrenó su película hace diez años su lanzado, en el que el personaje principal se enamora de un chatbot, la impresión todavía se categorizó como ciencia ficción. Hoy, esa tecnología, y todas las emociones confusas y los problemas éticos que la acompañan, es solo una realidad.

EVA AI, una aplicación que te permite hacer la ‘pareja perfecta’, sorprende. La aplicación anima a los usuarios a “ver ese socio virtual como quieras”. Algunos expertos temen que EVA AI y muchas aplicaciones similares estén teniendo una influencia desastrosa en las relaciones humanas.

Los chatbots que pueden ofrecernos compañía digital están en aumento. Si bien la IA generativa, que puede producir texto, imágenes y sonido, actualmente parece ser demasiado inestable para ayudar a automatizar tareas importantes, los modelos existentes son muy buenos para realizar conversaciones. Y esa tecnología va más allá de la foto de archivo flotante en la esquina inferior derecha de la pantalla que le pregunta “¿Hay algo en lo que puedan ayudarlo?” Los productos comercializados por empresas como Replika, Chai Research e Inflection le prometen compañía, apoyo emocional y un oído atento. Para eso tienen un avatar que puedes moldear a tu gusto, incluso puedes elegir si debe ser “gracioso” o “materno”.

inherentemente humano

Buscar consuelo en un modelo de lenguaje no suena exactamente cálido, pero aún contiene algo inherentemente humano, dice Lode Lauwaert, profesora de filosofía de la tecnología y cátedra de ética e inteligencia artificial en KU Leuven. “Tenemos un deseo biológicamente anclado de formar conexiones, de sentirnos conectados. Que no siempre llenemos ese deseo con personas, sino también con animales, sistemas u objetos, por ejemplo, no es nada nuevo. Tiene sentido que las empresas respondan a esto”. Y que claramente funciona. En Reddit y otras plataformas conversacionales donde los usuarios se conectan entre sí, ves cómo las personas desarrollan amistades profundas y, a veces, incluso se enamoran de los sistemas, ayudándolos con su soledad o con sus torpeza social.

Tales bots de IA, por lo tanto, satisfacen una necesidad social, pero aún no están exentos de peligros, advierten los expertos. “La carrera para imitar las conversaciones de la forma más humana posible ha comenzado”, dice Mieke De Ketelaere, profesora adjunta de IA Sostenible, Ética y Confiable en la Escuela de Negocios Vlerick. Precisamente porque es un hueco en el mercado, las empresas están lanzando estos sistemas al mundo sin la adecuada formación o evaluación de expertos. “Al contrario, estas empresas reclutan conscientemente a personas vulnerables, solitarias o jóvenes para mejorar sus sistemas, y ahí es donde aprieta el zapato”. Porque, por supuesto, siguen siendo sistemas, sistemas que pueden fallar, que ocasionalmente se desconectan para recibir actualizaciones y que tienen memoria limitada.

Por ejemplo, a principios de este año, luego de la advertencia de un regulador de privacidad, la compañía detrás de Replika eliminó la función de “juego de roles eróticos”, una función que los usuarios encontraron tan esencial para su bot que “se sintió como si un buen amigo hubiera fallecido”. Hay informes de personas cuyo chatbot perdió todo su historial de mensajes y ya no los ‘reconoció’, chatbots que comenzaron a lanzar discursos de odio, a dar consejos sobre dietas dañinas o incluso a pedir selfies sexys. En marzo salió a la luz que un belga se había suicidado después de que un chatbot con el que tenía un contacto intenso reforzara sus pensamientos negativos.

Transferir el riesgo

La pregunta claramente ya no es si estos sistemas alguna vez serán lo suficientemente buenos para imitar de manera realista la interacción humana, sino si estos sistemas son buenos para nuestra interacción humana.

Por ejemplo, por supuesto, hay una creciente preocupación por la privacidad, especialmente porque le cuentas cosas increíblemente íntimas a esos chatbots. Además, existe la afirmación aún no probada y dañina de que estas aplicaciones también están entrenadas por psicólogos para intervenir en una emergencia. La naturaleza generativa del sistema también permite que el bot adopte la personalidad, el comportamiento y también la edad que le agrada al usuario, lo que genera temores del llamado riesgo de transferencia, donde el comportamiento potencialmente dañino o delictivo que se alentó bajo el ojo amoroso y sumiso del chatbot también encuentra su camino en la vida cotidiana.

Por ello, los expertos abogan por la sensibilización y una mejor regulación de estos sistemas para proteger a los usuarios. “Eso es más difícil de lo que parece, porque la gente todavía no sabe clasificarlos. ¿Son personas, servicios, productos?” dice De Ketelaere. El mes pasado, el Parlamento Europeo ya aprobó la Ley de Inteligencia Artificial, en la que los desarrolladores de IA generativa deben evitar que sus productos produzcan contenidos ilegales y siempre habrá que dejar constancia explícita de que los textos (y por tanto las conversaciones) se han creado con ayuda de IA. Aunque en el pasado eso claramente no impidió que las personas formaran un estrecho vínculo emocional con él.

Según un análisis de la firma de capital de riesgo a16z, la próxima era de las aplicaciones de relaciones de IA será aún más realista y es “solo el comienzo de un cambio sísmico en las interacciones entre humanos y computadoras que nos obligará a reexaminar lo que significa estar en una relación con alguien”.



ttn-es-31