Microsoft compró el doble de chips emblemáticos de Nvidia que cualquiera de sus mayores rivales en Estados Unidos y China este año, mientras el mayor inversor de OpenAI aceleró su inversión en infraestructura de inteligencia artificial.
Los analistas de Omdia, una consultora tecnológica, estiman que Microsoft compró 485.000 chips “Hopper” de Nvidia este año. Eso puso a Microsoft muy por delante del siguiente mayor cliente estadounidense de Nvidia, Meta, que compró 224.000 chips Hopper, así como de sus rivales de computación en la nube Amazon y Google.
Dado que la demanda ha superado la oferta de las unidades de procesamiento de gráficos más avanzadas de Nvidia durante gran parte de los últimos dos años, el tesoro de chips de Microsoft le ha dado una ventaja en la carrera por construir la próxima generación de sistemas de inteligencia artificial.
Este año, las grandes empresas tecnológicas han gastado decenas de miles de millones de dólares en centros de datos que ejecutan los últimos chips de Nvidia, que se han convertido en el producto más popular en Silicon Valley desde que el debut de ChatGPT hace dos años impulsó un aumento sin precedentes de inversión en IA.
La infraestructura de nube Azure de Microsoft se utilizó para entrenar el último modelo o1 de OpenAI, mientras compiten contra un Google renaciente, empresas emergentes como Anthropic y xAI de Elon Musk, y rivales en China por el dominio de la próxima generación de informática.
Omdia estima que ByteDance y Tencent ordenaron cada uno alrededor de 230.000 chips de Nvidia este año, incluido el modelo H20, una versión menos potente de Hopper que fue modificada para cumplir con los controles de exportación de Estados Unidos para los clientes chinos.
Amazon y Google, que junto con Meta están intensificando el despliegue de sus propios chips de IA personalizados como alternativa a los de Nvidia, compraron 196.000 y 169.000 chips Hopper respectivamente, dijeron los analistas.
Omdia analiza el gasto de capital divulgado públicamente, los envíos de servidores y la inteligencia de la cadena de suministro de las empresas para calcular sus estimaciones.
El valor de Nvidia, que ahora está comenzando a lanzar el sucesor de Hopper, Blackwell, se ha disparado a más de 3 billones de dólares este año a medida que las grandes empresas tecnológicas se apresuran a ensamblar grupos cada vez más grandes de sus GPU.
Sin embargo, el extraordinario aumento de las acciones ha disminuido en los últimos meses en medio de preocupaciones sobre un crecimiento más lento, la competencia de los propios chips de IA personalizados de las grandes empresas tecnológicas y la posible interrupción de sus negocios en China por parte de la administración entrante de Donald Trump en Estados Unidos.
ByteDance y Tencent se han convertido en dos de los mayores clientes de Nvidia este año, a pesar de las restricciones del gobierno estadounidense sobre las capacidades de los chips de IA estadounidenses que pueden venderse en China.
Microsoft, que ha invertido 13.000 millones de dólares en OpenAI, ha sido la más agresiva de las grandes empresas tecnológicas estadounidenses en la construcción de infraestructura de centros de datos, tanto para ejecutar sus propios servicios de IA, como su asistente Copilot, como para alquilarlos a clientes a través de su división Azure. .
Los pedidos de chips Nvidia de Microsoft son más del triple de la misma generación de procesadores de inteligencia artificial de Nvidia que compró en 2023, cuando Nvidia estaba corriendo para aumentar la producción de Hopper tras el gran éxito de ChatGPT.
“Una buena infraestructura de centro de datos, son proyectos muy complejos que requieren mucho capital”, dijo al Financial Times Alistair Speirs, director senior de Infraestructura Global Azure de Microsoft. “Requieren varios años de planificación. Por eso es importante pronosticar dónde estará nuestro crecimiento con un poco de margen”.
Las empresas tecnológicas de todo el mundo gastarán aproximadamente 229 mil millones de dólares en servidores en 2024, según Omdia, lideradas por los 31 mil millones de dólares en gastos de capital de Microsoft y los 26 mil millones de dólares de Amazon. Los 10 principales compradores de infraestructura de centros de datos, que ahora incluyen a los relativamente nuevos xAI y CoreWeave, representan el 60 por ciento de la inversión global en potencia informática.
Vlad Galabov, director de investigación de centros de datos y nube de Omdia, dijo que alrededor del 43 por ciento del gasto en servidores se destinó a Nvidia en 2024.
“Las GPU de Nvidia representaron una proporción tremendamente alta del gasto de capital del servidor”, dijo. “Estamos cerca de la cima”.

Si bien Nvidia todavía domina el mercado de chips de IA, su rival de Silicon Valley, AMD, ha ido avanzando. Meta compró 173.000 chips MI300 de AMD este año, mientras que Microsoft compró 96.000, según Omdia.
Las grandes empresas tecnológicas también han aumentado el uso de sus propios chips de IA este año, mientras intentan reducir su dependencia de Nvidia. Google, que lleva una década desarrollando sus “unidades de procesamiento tensorial”, o TPU, y Meta, que estrenó la primera generación de su chip Meta Training and Inference Accelerator el año pasado, desplegaron cada uno alrededor de 1,5 millones de sus propios chips.
Amazon, que está invirtiendo fuertemente en sus chips Trainium e Inferentia para clientes de computación en la nube, implementó alrededor de 1,3 millones de esos chips este año. Amazon dijo este mes que planea construir un nuevo clúster utilizando cientos de miles de sus últimos chips Trainium para Anthropic, un rival de OpenAI en el que Amazon ha invertido 8.000 millones de dólares, para entrenar la próxima generación de sus modelos de IA.
Microsoft, sin embargo, está mucho más adelantado en su esfuerzo por construir un acelerador de IA que rivalice con el de Nvidia, con sólo unos 200.000 de sus chips Maia instalados este año.
Speirs dijo que el uso de los chips de Nvidia aún requería que Microsoft hiciera importantes inversiones en su propia tecnología para ofrecer un servicio “único” a los clientes.
“Según nuestra experiencia, construir la infraestructura de IA no se trata solo de tener el mejor chip, sino también de tener los componentes de almacenamiento adecuados, la infraestructura adecuada, la capa de software adecuada, la capa de gestión de host adecuada, la corrección de errores y todos esos otros aspectos. componentes para construir ese sistema”, dijo.