OpenAI ha lanzado GPT-4, su último modelo de inteligencia artificial que, según afirma, exhibe un “rendimiento a nivel humano” en varios puntos de referencia académicos y profesionales, como el examen de la barra de EE. UU., las pruebas de colocación avanzada y los exámenes escolares SAT.
El nuevo modelo, al que se puede acceder a través de la versión paga de $20 de ChatGPT, es multimodal, lo que significa que puede aceptar entradas tanto en forma de texto como de imagen. Luego puede analizar y responder a estas consultas usando texto.
OpenAI dijo que ha integrado su nuevo software en una variedad de aplicaciones, incluida la aplicación de aprendizaje de idiomas Duolingo, que lo está utilizando para crear bots de lenguaje conversacional; la empresa de educación Khan Academy, que ha diseñado un tutor en línea; y Morgan Stanley Wealth Management, que está probando un chatbot interno que usa GPT-4 para recuperar y sintetizar información para sus empleados.
La capacidad del modelo para aceptar imágenes y texto como entrada significa que ahora puede generar descripciones detalladas y responder preguntas basadas en el contenido de una fotografía. La compañía dijo que se ha asociado con la empresa emergente danesa Be My Eyes, que conecta a personas con discapacidades visuales con voluntarios humanos, para crear un voluntario virtual basado en GPT-4 que pueda guiar o ayudar a las personas ciegas o deficientes visuales.
El predecesor de GPT-4, GPT-3.5, capturó la imaginación de millones de personas a fines del año pasado que experimentaron con el chatbot de preguntas y respuestas ChatGPT.
Según OpenAI, GPT-4 es su “sistema más avanzado hasta ahora”. Afirma que es más confiable y capaz de manejar consultas matizadas mucho mejor que su predecesor. Por ejemplo, GPT-4 obtuvo una puntuación en el percentil 90 en el examen de la barra uniforme realizado por los aspirantes a abogados en los EE. UU. en comparación con ChatGPT, que solo alcanzó el percentil 10.
Sin embargo, la compañía notó algunos problemas: “A pesar de sus capacidades, GPT-4 tiene limitaciones similares a los modelos GPT anteriores: no es completamente confiable (por ejemplo, puede sufrir “alucinaciones”), tiene una ventana de contexto limitada y no aprende de experiencia.”
“Se debe tener cuidado al usar los resultados de GPT-4, particularmente en contextos donde la confiabilidad es importante”, agregó la compañía.
A principios de este año, Microsoft confirmó una “inversión multimillonaria” en OpenAI durante varios años, apostando por el futuro de la IA generativa, un software que puede responder a consultas humanas complejas en un lenguaje natural. GPT-4 respaldará el chatbot Bing de Microsoft, que tuvo un lanzamiento limitado a principios de este año. También se espera que Microsoft anuncie su integración en sus productos de consumo en los próximos días.
Mientras tanto, Google abrió su propio chatbot conversacional, Bard, a un grupo limitado de probadores y anunció que permitirá a los clientes de Google Cloud acceder a su modelo de lenguaje grande PaLM por primera vez para crear aplicaciones.
OpenAI, que había publicado algunos detalles de modelos anteriores como GPT-3, dijo que no revelaría ningún detalle sobre los aspectos técnicos de GPT-4, incluida la arquitectura del modelo, los datos con los que se entrenó o el hardware y la informática. capacidad utilizada para implementarlo, debido a preocupaciones de competitividad y seguridad.
Para probar los daños de la tecnología, la empresa sometió a GPT-4 a pruebas de estrés y estableció los riesgos que prevé en torno al sesgo, la desinformación, la privacidad y la seguridad cibernética. Revelaron que GPT-4 puede “generar contenido potencialmente dañino, como consejos sobre la planificación de ataques o discursos de odio. Puede representar varios sesgos y visiones del mundo. . . también puede generar código comprometido o vulnerable”. Dijeron que puede proporcionar información detallada sobre cómo realizar actividades ilegales, incluido el desarrollo de armas biológicas.
OpenAI dijo que también trabajó con una organización externa para probar si GPT-4 era capaz de llevar a cabo acciones autónomas sin intervención humana y concluyó que “probablemente” aún no era capaz de hacerlo.
Información adicional de Richard Waters