Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
El director ejecutivo de AMD cree que el fabricante de chips está cerrando la brecha de rendimiento con los procesadores de inteligencia artificial líderes del mercado de Nvidia, al presentar nuevos productos dirigidos a un mercado valorado en cientos de miles de millones de dólares.
El jueves, el grupo con sede en Silicon Valley anunció que su chip MI325X se lanzará a los clientes en el cuarto trimestre de este año, diciendo que ofrece un rendimiento “líder en la industria” en comparación con la generación actual de chips H200 AI de Nvidia.
El chip MI350 de próxima generación de AMD, que pretende competir con el nuevo sistema Blackwell de Nvidia, está en camino de lanzarse en la segunda mitad de 2025.
El fabricante de chips estadounidense ha regresado del borde de la bancarrota hace una década, cuando Lisa Su asumió como directora ejecutiva, para emerger como el principal desafío al control de Nvidia sobre la infraestructura que impulsa la IA generativa.
Su dijo que su objetivo es que la empresa se convierta en el “líder en IA de extremo a extremo” durante los próximos 10 años. “Hay que ser extremadamente ambicioso”, dijo Su al Financial Times. “Este es el comienzo, no el final, de la carrera de la IA”.
Se produce cuando se espera que los clientes de Nvidia comiencen a implementar Blackwell en el trimestre actual, y Microsoft dijo esta semana que se había convertido en el primer proveedor de nube en ofrecer los últimos chips GB200 a sus clientes.
Si bien los llamados ‘hiperescaladores’ (Microsoft, Google y Amazon) también están construyendo sus propios chips de IA internos, AMD se ha convertido en el competidor más cercano de Nvidia en la carrera por ofrecer chips de IA disponibles en el mercado.
Sin embargo, sigue estando en un distante segundo lugar. Los 4.500 millones de dólares proyectados por AMD en ventas de chips de IA para 2024 son pequeños en comparación con los 26.300 millones de dólares en ventas de chips de centros de datos de IA que Nvidia realizó solo en el trimestre hasta finales de julio.
Pero Su confía en que la demanda no hará más que crecer en los próximos años. La compañía ha predicho que el mercado total direccionable para chips de IA alcanzará los 400.000 millones de dólares en 2027.
“Cuando empezamos, se consideraba una cifra realmente grande”, dijo Su. “Y creo que la gente está avanzando hacia nuestro gran número debido a la tremenda demanda que existe de infraestructura de IA”.
Los chips son solo una parte de la infraestructura necesaria para construir sistemas de inteligencia artificial de vanguardia. AMD también anunció el jueves nueva tecnología de red y actualizaciones de su conjunto de herramientas de software ROCm, todo ello destinado a ofrecer infraestructura de IA de forma rápida y a escala.
“Una de las cosas que realmente estamos armando es la infraestructura de extremo a extremo para el centro de datos”, dijo Su. “La gente quiere un gran grupo [of chips in a server] para que puedas entrenar los modelos de lenguaje más grandes”.
Su, que tiene un doctorado en ingeniería eléctrica del Instituto de Tecnología de Massachusetts, trabajó en Texas Instruments, IBM y Freescale Semiconductor antes de unirse a AMD en 2012 como vicepresidente senior.
Cuando asumió el cargo de directora ejecutiva en 2014, las acciones de AMD languidecían en alrededor de 4 dólares, y algunos analistas predijeron que quebraría en unos años mientras luchaba por competir con Intel.
Hoy en día, AMD ha acaparado una fuerte participación en el mercado de chips para servidores y ha superado a Intel en IA a medida que se diversifica de su negocio tradicional de PC. Las acciones de AMD cerraron a 171 dólares el miércoles antes del anuncio, lo que le otorga una capitalización de mercado de alrededor de 275 mil millones de dólares, casi el triple que la de Intel.
Su ve la IA como el principal impulsor de la próxima era de crecimiento de AMD y busca conseguir los mismos clientes que Nvidia.
“La gente está realmente abierta a probar diferentes arquitecturas y ver cuál se adapta mejor a su carga de trabajo”, dijo Su. Hasta ahora, tanto Microsoft como Meta han adoptado la generación actual de unidades de procesamiento de gráficos (GPU) AI MI300 de AMD.
Es probable que Amazon, que ya es cliente de las CPU para servidores de AMD, le siga, dijo Su: “Es una conversación sobre un ‘punto en el tiempo'”.
El enfoque de AMD es paralelo a lo que Nvidia está haciendo con Blackwell, donde apunta a vender no chips individuales, sino bastidores de servidores completos compuestos por múltiples chips, combinados con el propio equipo de red de Nvidia.
Para ponerse al día, AMD ha seguido una agresiva estrategia de inversión y adquisición, incluido el reciente anuncio de la adquisición de ZT Systems por 4.900 millones de dólares, que construye servidores para el pequeño grupo de hiperescaladores de IA.
En términos de posibles revisiones regulatorias del acuerdo, Su dijo que “nuestra expectativa actual es que Estados Unidos y la UE [checks]y hay algunas otras jurisdicciones también, pero por el momento no superamos los umbrales para China”.