En 2022, el fabricante de chips estadounidense Nvidia lanzó el H100, uno de los procesadores más potentes que jamás haya construido, y uno de los más caros, con un costo de alrededor de $ 40,000 cada uno. El lanzamiento parecía mal momento, justo cuando las empresas buscaban recortar gastos en medio de una inflación desenfrenada.
Luego, en noviembre, se lanzó ChatGPT.
“Pasamos de un año bastante difícil el año pasado a un cambio de la noche a la mañana”, dijo Jensen Huang, director ejecutivo de Nvidia. El exitoso chatbot de OpenAI fue un “momento de alegría”, dijo. “Creó una demanda instantánea”.
La repentina popularidad de ChatGPT ha desencadenado una carrera armamentista entre las principales empresas tecnológicas del mundo y las nuevas empresas que se apresuran a obtener el H100, que Huang describe como “la primera computadora del mundo”. [chip] diseñado para la IA generativa”: sistemas de inteligencia artificial que pueden crear rápidamente texto, imágenes y contenido similares a los humanos.
El valor de tener el producto correcto en el momento correcto se hizo evidente esta semana. Nvidia anunció el miércoles que sus ventas para los tres meses que terminaron en julio serían de 11.000 millones de dólares, más del 50 % por encima de las estimaciones anteriores de Wall Street, impulsadas por una reactivación del gasto en centros de datos por parte de Big Tech y la demanda de sus chips de IA.
La respuesta de los inversores al pronóstico agregó $ 184 mil millones a la capitalización de mercado de Nvidia en un solo día el jueves, lo que llevó a la que ya era la compañía de chips más valiosa del mundo a cerca de una valoración de $ 1 billón.
Nvidia es uno de los primeros ganadores del ascenso astronómico de la IA generativa, una tecnología que amenaza con remodelar las industrias, producir enormes ganancias de productividad y desplazar millones de puestos de trabajo.
Ese salto tecnológico se verá acelerado por el H100, que se basa en una nueva arquitectura de chip Nvidia denominada “Hopper”, llamada así por la pionera de la programación estadounidense Grace Hopper, y de repente se ha convertido en el producto más popular en Silicon Valley.
“Todo esto despegó justo cuando comenzamos la producción en Hopper”, dijo Huang, y agregó que la fabricación a escala comenzó solo unas semanas antes del debut de ChatGPT.
La confianza de Huang en las ganancias continuas se debe en parte a que puede trabajar con el fabricante de chips TSMC para aumentar la producción de H100 y satisfacer la creciente demanda de proveedores de la nube como Microsoft, Amazon y Google, grupos de Internet como Meta y clientes corporativos.
“Este es uno de los recursos de ingeniería más escasos del planeta”, dijo Brannin McBee, director de estrategia y fundador de CoreWeave, una puesta en marcha de infraestructura en la nube centrada en IA que fue una de las primeras en recibir envíos de H100 a principios de este año.
Algunos clientes han esperado hasta seis meses para hacerse con los miles de chips H100 que quieren para entrenar sus vastos modelos de datos. Las nuevas empresas de IA habían expresado su preocupación de que los H100 escasearan justo en el momento en que la demanda estaba despegando.
Elon Musk, que compró miles de chips Nvidia para su nueva empresa de inteligencia artificial X.ai, dijo en un evento del Wall Street Journal esta semana que en la actualidad las GPU (unidades de procesamiento de gráficos) “son considerablemente más difíciles de conseguir que las drogas”. bromeando que “no era realmente un listón alto en San Francisco”.
“El costo de la computación se ha vuelto astronómico”, agregó Musk. “La apuesta mínima tiene que ser de 250 millones de dólares en hardware de servidor [to build generative AI systems].”
El H100 está demostrando ser particularmente popular entre las grandes empresas tecnológicas como Microsoft y Amazon, que están construyendo centros de datos completos centrados en cargas de trabajo de IA, y empresas emergentes de IA generativa como OpenAI, Anthropic, Stability AI e Inflection AI porque promete un mayor rendimiento. que pueden acelerar los lanzamientos de productos o reducir los costos de capacitación con el tiempo.
“En términos de obtener acceso, sí, así es como se siente impulsar una GPU de nueva arquitectura”, dijo Ian Buck, jefe del negocio de computación de hiperescala y alto rendimiento de Nvidia, quien tiene la abrumadora tarea de aumentar la oferta de H100 para satisfacer la demanda. “Está sucediendo a gran escala”, agregó, con algunos clientes importantes que buscan decenas de miles de GPU.
El chip inusualmente grande, un “acelerador” diseñado para funcionar en centros de datos, tiene 80 mil millones de transistores, cinco veces más que los procesadores que alimentan los últimos iPhones. Si bien es dos veces más caro que su predecesor, el A100 lanzado en 2020, los primeros usuarios dicen que el H100 cuenta con un rendimiento al menos tres veces mejor.
“El H100 resuelve la cuestión de la escalabilidad que ha estado plagando [AI] creadores de modelos”, dijo Emad Mostaque, cofundador y director ejecutivo de Stability AI, una de las empresas detrás del servicio de generación de imágenes Stable Diffusion. “Esto es importante porque nos permite entrenar modelos más grandes más rápido a medida que pasa de ser un problema de investigación a un problema de ingeniería”.
Si bien el momento del lanzamiento del H100 fue ideal, el avance de Nvidia en IA se remonta casi dos décadas atrás a una innovación en software en lugar de silicio.
Su software Cuda, creado en 2006, permite que las GPU se reutilicen como aceleradores de otros tipos de cargas de trabajo más allá de los gráficos. Luego, alrededor de 2012, Buck explicó: “AI nos encontró”.
Investigadores en Canadá se dieron cuenta de que las GPU eran ideales para crear redes neuronales, una forma de IA inspirada en la forma en que las neuronas interactúan en el cerebro humano, que luego se estaban convirtiendo en un nuevo enfoque para el desarrollo de IA. “Tomó casi 20 años llegar a donde estamos hoy”, dijo Buck.
Nvidia ahora tiene más ingenieros de software que ingenieros de hardware para permitirle admitir los muchos tipos diferentes de marcos de trabajo de IA que surgieron en los años posteriores y hacer que sus chips sean más eficientes en el cálculo estadístico necesario para entrenar modelos de IA.
Hopper fue la primera arquitectura optimizada para “transformadores”, el enfoque de IA que sustenta el chatbot de “transformador preentrenado generativo” de OpenAI. El trabajo cercano de Nvidia con los investigadores de IA le permitió detectar el surgimiento del transformador en 2017 y comenzar a ajustar su software en consecuencia.
“Podría decirse que Nvidia vio el futuro antes que los demás con su giro para hacer que las GPU fueran programables”, dijo Nathan Benaich, socio general de Air Street Capital, un inversionista en nuevas empresas de IA. “Detectó una oportunidad, apostó en grande y superó constantemente a sus competidores”.
Benaich estima que Nvidia tiene una ventaja de dos años sobre sus rivales, pero agrega: “Su posición está lejos de ser inexpugnable tanto en el frente del hardware como del software”.
Mostaque de Stability AI está de acuerdo. “Los chips de próxima generación de Google, Intel y otros se están poniendo al día [and] incluso Cuda deja de ser un foso a medida que se estandariza el software”.
Para algunos en la industria de la IA, el entusiasmo de Wall Street esta semana parece demasiado optimista. Sin embargo, “por el momento”, dijo Jay Goldberg, fundador de la consultora de chips D2D Advisory, “el mercado de IA para semis parece que seguirá siendo un mercado ganador para Nvidia”.
Información adicional de Madhumita Murgia