La caída de los costos de la IA puede dejar su poder en manos de un pequeño grupo


El precio de la materia prima más importante que alimenta el último auge de la inteligencia artificial se está desplomando rápidamente. Eso debería impulsar la tecnología a la corriente principal mucho más rápidamente. Pero también amenaza las finanzas de algunas de las nuevas empresas que esperan sacar provecho de este auge y podría dejar el poder en manos de un pequeño grupo.

La materia prima en cuestión es el poder de procesamiento de los modelos de lenguaje grande, o LLM, que sustentan servicios como ChatGPT y las nuevas respuestas de estilo de chat que Microsoft mostró recientemente para su motor de búsqueda Bing.

Los altos costos informáticos de ejecutar estos modelos han amenazado con ser un serio obstáculo para su uso. Hace solo unas semanas, usar el nuevo lenguaje AI costaba al motor de búsqueda You.com un 50 por ciento más que realizar una búsqueda tradicional en Internet, según el director ejecutivo Richard Socher. Pero a fines del mes pasado, gracias a la competencia entre las empresas LLM OpenAI, Anthropic y Cohere, esa brecha de costos se había reducido a solo alrededor del 5 por ciento.

Días después, OpenAI lanzó un nuevo servicio para permitir que los desarrolladores accedan directamente a ChatGPT y redujo sus precios por usar la tecnología en un 90 por ciento.

Esto es excelente para los clientes, pero potencialmente ruinoso para los rivales de OpenAI. Varios, incluidos Anthropic e Inflection, han recaudado o están en proceso de intentar recaudar efectivo para respaldar sus propias ambiciones de LLM.

Rara vez una tecnología ha pasado tan rápido de la investigación al uso generalizado, lo que provocó una carrera para «industrializar» los procesos que se desarrollaron para su uso en entornos de laboratorio. La mayor parte de las ganancias en el rendimiento, y la reducción de los costos, provienen de las mejoras en la plataforma informática subyacente en la que se ejecutan los LLM, así como del perfeccionamiento de la forma en que se entrenan y operan los modelos.

Hasta cierto punto, la caída de los costos de hardware beneficia a todos los contendientes. Eso incluye el acceso a los últimos chips diseñados específicamente para manejar las demandas de los nuevos modelos de IA, como las unidades de procesamiento de gráficos o GPU H100 de Nvidia. Microsoft, que ejecuta los modelos de OpenAI en su plataforma en la nube Azure, ofrece las mismas instalaciones y beneficios de costos a otras compañías de LLM.

Sin embargo, los modelos grandes son tanto arte como ciencia. OpenAI dijo que había «una serie de optimizaciones en todo el sistema» en la forma en que ChatGPT procesa sus respuestas a las consultas. redujo los costos 90 por ciento desde diciembre, lo que permite esa drástica reducción de precios para los usuarios.

Capacitar a un LLM cuesta decenas de millones de dólares y las técnicas para manejar la tarea están cambiando rápidamente. Al menos a corto plazo, eso premia al número relativamente pequeño de personas con experiencia en el desarrollo y entrenamiento de los modelos.

Para cuando las mejores técnicas sean ampliamente comprendidas y adoptadas, los primeros contendientes podrían haber logrado la ventaja de ser los primeros en moverse. Scott Guthrie, jefe del grupo de inteligencia artificial y nube de Microsoft, señala nuevos servicios como GitHub Copilot, que la compañía lanzó el verano pasado para sugerir ideas de codificación a los desarrolladores de software. Dichos servicios mejoran rápidamente una vez que están en uso generalizado. Hablando en una conferencia de inversores de Morgan Stanley esta semana, dijo que la «señal» que proviene de los usuarios de servicios como este se convierte rápidamente en un importante punto de diferenciación.

La principal esperanza para los fabricantes de LLM rivales proviene de la venta de los servicios adicionales necesarios para que la tecnología sea más fácil de usar para los desarrolladores y los grandes clientes corporativos, así como de la creación de modelos más específicos que se ajusten a las necesidades comerciales particulares.

Cuando presentó su último LLM esta semana, por ejemplo, la empresa emergente israelí AI21 Labs también anunció una serie de API, o enlaces de programación, para servicios de nivel superior, como el resumen o la reescritura de texto.

En lugar de modelos de base amplia como el que está detrás de ChatGPT, la mayoría de las empresas querrán usar modelos que hayan sido capacitados en el lenguaje utilizado en industrias particulares como finanzas o atención médica, o en los propios datos de una empresa, dijo Ori Goshen, co-director de AI21. CEO.

Como señaló, los grandes modelos de lenguaje están en su infancia. Todavía queda mucho trabajo por hacer para reducir su tendencia a escupir falsedades y evitar que «alucinen» o generen respuestas que suenen plausibles y que no tienen nada que ver con la realidad. Para tener éxito, las empresas de IA tendrán que mantenerse a la vanguardia de la investigación.

Pero sigue siendo cierto que los costos subyacentes de estos servicios generativos de IA se están desplomando. El recorte de precios de OpenAI es una señal de la rapidez con que la nueva tecnología se está convirtiendo en una adopción masiva y una señal de advertencia de que este puede ser un negocio con pocos productores.

[email protected]



ttn-es-56