Les investisseurs devraient évaluer si l’énorme demande de produits d’intelligence artificielle peut aider à compenser la baisse des ventes mondiales de matériel informatique lorsque Nvidia publiera ses résultats trimestriels mercredi.
Le groupe américain a déclaré dans son précédent rapport sur les résultats que la demande pour ses processeurs destinés à la formation de grands modèles de langage, tels que ChatGPT d’OpenAI, augmenterait ses revenus de près des deux tiers et contribuerait à quadrupler son bénéfice par action au cours des trois mois précédant fin juillet. .
Le fabricant de puces le plus précieux au monde prévoit désormais de tripler au moins la production de son meilleur processeur d’IA H100, selon trois sources proches de Nvidia, avec des livraisons comprises entre 1,5 million et 2 millions de H100 en 2024, ce qui représente un bond massif par rapport aux 500 000 attendus cette année.
Alors que les processeurs d’IA sont déjà épuisés jusqu’en 2024, la soif massive de puces Nvidia touche le marché plus large des équipements informatiques, alors que les gros acheteurs investissent dans l’IA au détriment des serveurs à usage général.
Foxconn, le plus grand fabricant mondial d’électronique sous contrat en termes de chiffre d’affaires, a prévu la semaine dernière une très forte demande de serveurs d’IA pour les années à venir, mais a également averti que les revenus globaux des serveurs diminueraient cette année.
Lenovo, le plus grand fabricant d’ordinateurs en termes d’unités expédiées, a annoncé la semaine dernière une baisse de 8 % de son chiffre d’affaires pour le deuxième trimestre, qu’il a attribuée à la demande de serveurs logiciels de la part des fournisseurs de services cloud (CSP) et à la pénurie de processeurs d’IA (GPU).
“[CSPs] déplacent leur demande des ordinateurs traditionnels vers les serveurs d’IA. Mais malheureusement, l’offre de serveurs IA est limitée par l’offre de GPU », a déclaré Yang Yuanqing, directeur général de Lenovo.
Taiwan Semiconductor Manufacturing Company, le plus grand fabricant de puces sous contrat au monde en termes de chiffre d’affaires et producteur exclusif des processeurs d’IA de pointe de Nvidia, a prédit le mois dernier que la demande de puces pour serveurs d’IA augmenterait de près de 50 % par an au cours des cinq prochaines années. Cependant, il a déclaré que cela ne suffisait pas à compenser les pressions à la baisse dues à la crise technologique mondiale provoquée par le ralentissement économique.
Aux États-Unis, les fournisseurs de services cloud tels que Microsoft, Amazon et Google, qui se taillent la part du lion sur le marché mondial des serveurs, se concentrent désormais sur le développement de leur infrastructure d’IA.
“La faiblesse de l’environnement économique global constitue un défi pour les CSP américains”, a déclaré Angela Hsiang, vice-présidente de KGI, une société de courtage basée à Taipei. « Comme dans les serveurs IA, chaque composant doit être mis à niveau, le prix est beaucoup plus élevé. Les CSP se développent de manière agressive dans les serveurs d’IA, mais cela n’était pas prévu lors de l’élaboration des budgets de dépenses en capital, de sorte que cette expansion cannibalise d’autres dépenses.
À l’échelle mondiale, les dépenses en capital des CSP ne devraient augmenter que de 8 % cette année, contre près de 25 % en 2022, selon Counterpoint Research, à mesure que les taux d’intérêt augmentent et que les entreprises réduisent leurs activités.
La société d’études industrielles TrendForce s’attend à ce que les livraisons mondiales de serveurs diminuent de 6 % cette année et prévoit un retour à une croissance modeste de 2 à 3 % en 2024. Elle souligne la décision de Meta Platforms de réduire les achats de serveurs de plus de 10 % pour canaliser les investissements vers le matériel d’IA, et des retards dans les mises à niveau de Microsoft sur ses serveurs à usage général afin de libérer des fonds pour l’expansion des serveurs d’IA.
Outre la pénurie de puces Nvidia, les analystes soulignent d’autres goulots d’étranglement dans la chaîne d’approvisionnement qui retardent la récolte de l’IA pour le secteur du matériel.
“Il y a un manque de capacité à la fois dans le packaging avancé et dans la mémoire à large bande passante (HBM), qui limitent tous deux la production”, a déclaré Brady Wang, analyste de Counterpoint. TSMC prévoit de doubler sa capacité pour CoWoS, une technologie de packaging avancée nécessaire à la fabrication du processeur H100 de Nvidia, mais a averti que le goulot d’étranglement ne serait pas résolu avant au moins la fin 2024. Les deux principaux fournisseurs de HBM sont les sud-coréens SK Hynix et Samsung.
Le marché chinois est confronté à un obstacle supplémentaire. Bien que les CSP chinois tels que Baidu et Tencent consacrent une part aussi élevée de leurs investissements aux serveurs d’IA que Google et Meta, leurs dépenses sont freinées par les contrôles à l’exportation de Washington sur le H100 de Nvidia. L’alternative pour les entreprises chinoises est le H800, une version moins puissante de la puce dont le prix est nettement inférieur.
Un directeur commercial d’Inspur Electronic Information Industry, l’un des principaux fournisseurs de serveurs chinois, a déclaré que les clients exigeaient une livraison rapide, mais que les fabricants connaissaient des retards. « Au deuxième trimestre, nous avons livré 10 milliards de RMB (1,4 milliard de dollars) de serveurs d’IA et pris 30 milliards de RMB supplémentaires de commandes. . . la chose la plus gênante, ce sont les puces GPU de Nvidia – nous ne savons jamais combien nous pouvons obtenir », a-t-il déclaré.
Mais une fois que l’économie mondiale s’améliorera et que les pénuries s’atténueront, les entreprises de la chaîne d’approvisionnement en serveurs pourraient récolter des bénéfices considérables, ont déclaré des dirigeants d’entreprise et des analystes.
La société de courtage KGI prévoit que les livraisons de serveurs destinés à la formation des algorithmes d’IA tripleront l’année prochaine, tandis que Dell’Oro, une société de recherche technologique basée en Californie, s’attend à ce que la part des serveurs d’IA sur le marché global des serveurs passe de 7 % l’année dernière à environ 20 pour cent en 2027.
En raison du coût nettement plus élevé des serveurs d’IA, « ces déploiements pourraient représenter plus de 50 % des dépenses totales d’ici 2027 », a déclaré son analyste Baron Fung dans un récent rapport.
“Pour la chaîne d’approvisionnement, ce ne sont que des multiples de tout”, a déclaré Hsiang de KGI. Avec huit GPU dans un serveur IA, la demande de plinthes sur lesquelles reposent les modules GPU est vouée à monter en flèche par rapport aux serveurs généraux, a-t-elle déclaré. Les serveurs IA ont également besoin de racks plus grands sur lesquels positionner les modules de processeur.
La consommation d’énergie beaucoup plus élevée des serveurs d’IA génératifs par rapport aux serveurs à usage général crée également le besoin de systèmes de refroidissement différents et de nouvelles spécifications pour les alimentations.
Foxconn pourrait être parmi les principaux bénéficiaires de ce virage car le groupe propose tout, depuis les différents composants jusqu’à l’assemblage final. Sa filiale, Foxconn Industrial Internet, est déjà le fournisseur exclusif du module GPU de Nvidia.
Pour WiWynn, une filiale du concurrent de Foxconn Wistron spécialisée dans les serveurs, les commandes d’IA représentent déjà 50 % des revenus, soit plus du double de la proportion enregistrée l’année dernière, selon Goldman Sachs.
Les analystes voient également un fort potentiel de hausse pour les fournisseurs de composants. Le fabricant taïwanais de circuits imprimés (PCB), Gold Circuit Electronics, pourrait voir la part des serveurs d’IA passer de moins de 3 % de son chiffre d’affaires cette année à 38 %, a déclaré Goldman Sachs dans un rapport publié en juin – une attente motivée par le septuple. augmentation du contenu en PCB dans les serveurs IA par rapport aux serveurs à usage général.