ChatGPT está menos impresionado por sí mismo que nosotros


El escritor es fundador de tamizadouna empresa de medios respaldada por FT que cubre las nuevas empresas europeas

¿Qué vamos a hacer con ChatGPT, la última iteración de “inteligencia artificial generativa” que está electrizando al mundo de la tecnología? Aunque solo fue lanzado por la empresa de investigación OpenAI con sede en San Francisco la semana pasada, más de 1 millón de usuarios ya han experimentado con el chatbot al que se le puede solicitar que produzca montones de texto plausible a una velocidad sorprendente.

Los usuarios entusiastas han estado prediciendo que ChatGPT revolucionará la creación de contenido, la producción de software, los asistentes digitales y los motores de búsqueda e incluso puede transformar la infraestructura digital del conocimiento humano. Uno tuiteó que la importancia de ChatGPT era comparable a la división del átomo.

Tal retórica salvaje hace que algunos científicos informáticos se rompan los pelos, ya que argumentan que ChatGPT no es más que un sofisticado sistema de aprendizaje automático que puede ser increíblemente bueno en el reconocimiento y la replicación de patrones, pero que no muestra destellos de inteligencia. Además, ChatGPT ni siquiera es una nueva tecnología. Es una versión modificada de GPT-3, un llamado modelo de lenguaje grande o básico lanzado por OpenAI en 2020, que se optimizó para el diálogo con la guía humana y se abrió a más usuarios.

Curiosamente, ChatGPT parece mucho menos impresionado por sus propias capacidades. Cuando le pedí que identificara sus fallas, ChatGPT enumeró una comprensión limitada del contexto, falta de sentido común, datos de capacitación sesgados y potencial de uso indebido, por ejemplo, al difundir información errónea para manipular los mercados financieros. “Si bien ChatGPT es una tecnología poderosa e impresionante, no está exenta de limitaciones y fallas potenciales”, respondió. Un investigador es más contundente. “Alucina hechos”, dice.

Si bien la mayor parte del interés público en ChatGPT se centra en su capacidad para generar texto, su mayor impacto comercial y social puede provenir de su correspondiente capacidad para interpretarlo. Estos modelos ahora están potenciando los motores de búsqueda semánticos, prometiendo contenido mucho más personalizado y relevante para los usuarios.

Mientras que los motores de búsqueda tradicionales ofrecen resultados de acuerdo con la cantidad y la calidad de los enlaces a una página, lo que se supone que es un indicador de importancia, los motores de búsqueda semánticos examinan la relevancia del contenido de la página. Google está desarrollando su propio y poderoso modelo de base LaMDA, mientras que Microsoft, que ejecuta el motor de búsqueda Bing, ha invertido mucho en OpenAI.

Las formas en que los modelos básicos se pueden utilizar para interpretar y generar contenido a escala se han demostrado por un equipo de investigación de la Universidad McGill. Utilizaron un modelo GPT-2 anterior para leer 5000 artículos sobre la pandemia producidos por Canadian Broadcasting Corporation y lo impulsaron a generar “periodismo contrafáctico” sobre la crisis.

La cobertura del modelo GPT-2 fue más alarmante, enfatizando los aspectos biológicos y médicos de la pandemia, mientras que el periodismo humano original se centró más en las personalidades y la geopolítica e inyectó un elemento de positividad forzada de “reunión alrededor de la bandera”. “Estamos utilizando IA para resaltar los sesgos humanos”, dice Andrew Piper, quien dirigió el proyecto de investigación de McGill. “Estamos utilizando la simulación para comprender la realidad”.

Pero al inyectar entradas humanas no especificadas en ChatGPT, OpenAI está agregando una nueva dimensión de controversia. Con bastante sensatez, OpenAI ha agregado medidas de seguridad para tratar de evitar que ChatGPT genere contenido tóxico o peligroso. Entonces, por ejemplo, ChatGPT se negó a decirme cómo construir una bomba nuclear.

Tales barandillas son esenciales para evitar que se abuse de los modelos de cimentación, pero ¿quién decide cómo se diseñan y operan estas salvaguardias?, pregunta Percy Liang, director del Centro de Investigación sobre Modelos de Cimentación de la Universidad de Stanford. Estos modelos pueden ser increíblemente útiles para la investigación científica y médica y para la automatización de tareas tediosas. “Pero también pueden arruinar el ecosistema de la información”, dice.

Los contornos del debate entre la IA paternalista y libertaria están emergiendo rápidamente. ¿Deberían estos modelos ser controlados o “democratizados”? “El nivel de presión de censura que se avecina para la IA y la reacción negativa resultante definirán el próximo siglo de civilización”, tuiteó Marc Andreessen, el empresario e inversor tecnológico.

Andreessen puede estar exagerando su caso, pero sin duda es cierto que los modelos de base moldearán cada vez más las formas en que vemos, accedemos, generamos e interpretamos el contenido en línea. Debemos escudriñar quién dirige estos nuevos portales digitales al conocimiento humano y cómo se utilizan. Pero es dudoso que alguien fuera de las empresas que son pioneras en esta tecnología pueda comprender realmente, y mucho menos dar forma, su evolución espeluznantemente rápida.



ttn-es-56