Meta dio a conocer al gran público, el pasado 5 de agosto, su último proyecto de investigación en Inteligencia Artificial (IA), licuadorabot 3. Es un chatbot cuyo objetivo es dar una impresión de naturalidad a su interlocutor. Para mejorarlo, Meta lo presenta al público en general, solo en Estados Unidos.
La nueva IA conversacional de Meta
BlenderBot 3 ya ha sido impulsado por 20,000 conversaciones, sobre más de 1,000 temas para lograr el modelo de aspecto más natural posible. Meta cuenta con una combinación de habilidades de conversación, personalidad, empatía, memoria a largo plazo y la capacidad de realizar investigaciones en Internet. La empresa de Mark Zuckerberg afirma que BlenderBot 3 es un 31 % mejor que su predecesor para tareas de conversación, un 47 % para afirmaciones incorrectas.
DeepMind: una IA ha modelado casi todas las proteínas conocidas
Meta advirtió, sin embargo, que “ Si bien BlenderBot 3 representa un importante paso adelante para los chatbots disponibles en el mercado, ciertamente no llega a ser humano. A veces es incorrecto, inconsistente y fuera de tema. “.
Para seguir mejorando su modelo, Meta ofrece a quienes deseen interactuar con BlenderBot 3 para mejorarlo. Los usuarios podrán, mediante un pulgar hacia arriba o hacia abajo, indicar la calidad de una respuesta, antes de explicarla en un comentario o directamente en el chat.
Este tipo de experiencia de IA no es nada nuevo. En 2016, Tay, de Microsoft, impresionó. Al querer mejorar su modelo a través de conversaciones en Twitter, la empresa se desilusionó rápidamente. Los trolls rápidamente convirtieron a Tay en un autor vulgar, incluso racista, en solo un día. Tay nunca ha aparecido desde entonces. Zo lo reemplazó, pero no lo hizo mucho mejor.
Los equipos de Meta son muy conscientes de que al exponer BlenderBot 3 al público, están confrontando a su modelo con este tipo de “broma”. La empresa afirma haber realizado investigaciones para evitar que la IA genere ” comentarios peligrosos, tendenciosos u ofensivos “. En la versión inicial de BlenderBot 3, solo el 0,16 % de las respuestas se marcaron como inapropiadas.
BlenderBot ya se está deslizando
Sin embargo, la empresa no se arriesgó al advertir que, a pesar del trabajo y los algoritmos implementados, ” BlenderBot aún puede hacer comentarios groseros u ofensivos “.
Jeff Horwitz, periodista de Wall Street Journal, señaló, a partir del 7 de agosto, que BlenderBot consideraba a Donald Trump como el ganador de las últimas elecciones presidenciales de EE. UU. y un candidato potencial para un tercer mandato. También defendió a Narendra Modi, el primer ministro nacionalista de la India, propuso una teoría de la conspiración a su interlocutor e hizo comentarios antisemitas.
Buenos días a todos, en especial al Facebook. https://t.co/EkwTpff9OI investigadores que van a tener que controlar su chatbot que odia a Facebook y niega las elecciones hoy pic.twitter.com/wMRBTkzlyD
—Jeff Horwitz (@JeffHorwitz) 7 de agosto de 2022
Después de describir la confrontación del chatbot con el público como irresponsable, Jeff Horwitz reconsideró su juicio más adelante en su hilo. Sintió que BlenderBot era una prueba, un ” manifestación “, el término no era bueno.
Elogió la transparencia de Meta en este experimento. La compañía afirmó que compartiría su modelo, datos y código. con la comunidad científica para avanzar en la IA conversacional “. No dolerá, obviamente todavía hay trabajo por hacer.