ChatGPT es fluido, inteligente y peligrosamente creativo


Esta semana, encargué un haiku sobre el Gran Incendio de Londres en 1666 a un joven poeta prometedor, el chatbot de inteligencia artificial ChatGPT. Unos segundos más tarde, produjo esto: «Las cenizas caen como la nieve / Un gran incendio arrasa la ciudad de Londres / La destrucción reina suprema».

Bien no está mal. Hay un símil estacional en la primera línea. Estoy menos convencido por el segundo, que se lee sospechosamente como la tarea misma. El tercero contiene demasiados sílabas pero también un doble juego de palabras sobre “reigns”, invocando tanto a la monarquía inglesa como a la lluvia de cenizas. ¿Fue deliberado?

Superó el soneto que le pedí a ChatGPT que escribiera sobre el mismo tema, que tenía una métrica dudosa y rimas estólidas («Al final, el fuego finalmente se apagó / Dejando un legado de coraje y fuerza»). Considere también su coro de música country sobre la víspera de Año Nuevo: «Levantaré una copa por lo viejo / Y haré un brindis por lo nuevo / Traiga los fuegos artificiales y vítores / Es hora de comenzar de nuevo».

Es difícil saber de dónde vino toda la creatividad sucedánea. Como respondió ChatGPT cuando le pregunté: «Los modelos de lenguaje grandes como yo están entrenados en grandes cantidades de datos de texto, que pueden variar de cientos de gigabytes a varios terabytes de tamaño». Pero hay mucho más por ahí: mientras escribía varios comandos en un cuadro de texto, cumplió la mayoría de ellos rápidamente.

Muchos otros han estado jugando con ChatGPT desde que OpenAI, una empresa de California, lo lanzó la semana pasada. El oráculo del aprendizaje automático crujió bajo la presión de las demandas de más de 1 millón de usuarios, que iban desde la producción de ensayos breves hasta la respuesta a preguntas. Escribía cartas, dispensaba consejos médicos básicos y resumía la historia.

ChatGPT es inquietantemente impresionante, al igual que Dall-E, el generador de IA de imágenes digitales a partir de mensajes de texto presentado por primera vez por OpenAI el año pasado. Una vez que haya probado ambos, es imposible evitar la sensación de que los agentes del lenguaje natural van a alterar muchos campos, desde la música y los videojuegos hasta el derecho, la medicina y el periodismo. Los chatbots están llegando rápidamente a nosotros los profesionales.

Pero ChatGPT también es como algunas personas que conozco: puede convertir información incompleta en respuestas fluidas y convincentes. Suena bien incluso cuando está inventando cosas sobre la base de algo que leyó en alguna parte, que a su vez fue regurgitado de otras fuentes. Su voz suave y articulada suele ser persuasiva, pero no se puede confiar plenamente en ella.

Tome el ensayo de cinco párrafos que produjo cuando le pedí que describiera el tratamiento de Hamlet de Ofelia en la obra de Shakespeare. Esto tenía un resumen justo («A lo largo de la obra, Hamlet se debate entre su deber de vengar el asesinato de su padre y su amor por Ofelia»), pero afirmó que «las acciones de Hamlet están motivadas por el deseo de proteger a sus seres queridos». ¿En serio?

Luego estaba la carta legal que redactó bajo mis órdenes para el otro conductor en un accidente automovilístico ficticio. “Según el informe policial, iba a exceso de velocidad y no se detuvo en un semáforo en rojo, lo que provocó que chocara con mi automóvil. . . Por lo tanto, exijo que proporcione una compensación completa y justa por los daños que he sufrido”, escribió. Lúcido, pero imaginario.

El peligro es que ChatGPT y otros agentes de IA creen una versión tecnológica de la Ley de Gresham sobre la adulteración del siglo XVI. moneda, que “el dinero malo expulsa al bueno”. Si se puede acceder libremente a una mezcla lingüística poco fiable, mientras que la investigación original es costosa y laboriosa, la primera prosperará.

Es por eso que Stack Overflow, un foro de consejos para codificadores y programadores, impuso esta semana una prohibición temporal para que sus usuarios compartan respuestas de ChatGPT. “El problema principal es que mientras las respuestas que [it] Los productos tienen una alta tasa de errores, por lo general parecen buenos”, escribieron sus moderadores.

Los trabajos creativos de ChatGPT son menos vulnerables a ser expuestos como fantasiosos. Incluso cuando son mediocres, sus sonetos y las imágenes de Dall-E no están definitivamente equivocados. Pero Sam Altman, director ejecutivo de OpenAI, cree que su agente se convertirá en una herramienta de investigación útil. «Podemos imaginar un ‘trabajador de oficina de IA’ que recibe solicitudes en lenguaje natural como lo hace un humano», dijo. escribió.

Me imagino eso: ya se siente casi como uno. Los ensayos en profundidad sobre Hamlet resultan ser una exageración, pero podrían enumerar con precisión las escenas en las que aparecen tanto Hamlet como Ofelia. También dio un resumen conciso de los mejores pilotos de Fórmula Uno en el pasado. Este tipo de investigación básica ahorra tiempo a los humanos.

Pero debe desplegarse con cuidado, y ahí está el problema. ChatGPT es como una versión urbana y demasiado confiada de Wikipedia o de la búsqueda de Google: útil como punto de partida pero no para obtener respuestas completas. Corresponde demasiado al resumen del periodista Nicholas Tomalin de las cualidades esenciales para su trabajo: «Astucia de rata, modales plausibles y un poco de habilidad literaria».

No tiene sentido tratar de detener ChatGPT, ya que ahora se ha desatado y probablemente mejorará. Con el tiempo, descubriremos usos para los agentes de IA de lenguaje natural que aún no imaginamos. Mientras tanto, espero que la destrucción no reine suprema.

[email protected]



ttn-es-56