Veri merkezi odaklı hesaplama GPU’larından son çeyrekte 10 milyar doların üzerinde kazanç elde eden Nvidia, 2024’te bu tür ürünlerin üretimini en az üç katına çıkarmayı planlıyor. the Finans ZamanlarıKonuyla ilgili bilgisi olan kaynaklardan alıntı yapan. Bu hamle çok iddialı ve eğer Nvidia bunu başarabilirse ve yapay zeka (AI) ve yüksek performanslı bilgi işlem (HPC) uygulamaları için A100, H100 ve diğer bilgi işlem CPU’larına olan talep güçlü kalırsa, bu şirket için inanılmaz bir gelir anlamına gelebilir. .
FT’nin raporuna göre, Nvidia’nın amiral gemisi H100 hesaplama GPU’suna olan talep o kadar yüksek ki, 2024’e kadar tükenecek. İş sitesi, Nvidia’nın planlarını bilen üç kişiye atıfta bulunarak, şirketin GH100 işlemcilerinin üretimini en az üç kat artırmayı planladığını iddia ediyor. 2024 için öngörülen H100 sevkıyatları 1,5 milyon ila 2 milyon arasında değişiyor ve bu, bu yıl beklenen 500.000 adede göre önemli bir artışa işaret ediyor.
Nvidia’nın CUDA çerçevesi yapay zeka ve HPC iş yükleri için özel olarak tasarlandığından, yalnızca Nvidia’nın hesaplama GPU’larında çalışan yüzlerce uygulama bulunmaktadır. Hem Amazon Web Services hem de Google, yapay zeka eğitimi ve çıkarım iş yükleri için kendi özel yapay zeka işlemcilerine sahip olsa da, müşterileri uygulamalarını bunlar üzerinde çalıştırmak istediğinden, çok sayıda Nvidia hesaplama GPU’su satın almak zorundalar.
Ancak Nvidia H100 hesaplama GPU’larının, GH200 Grace Hopper süper bilgi işlem platformunun ve bunların tabanındaki ürünlerin arzını artırmak kolay olmayacak. Nvidia’nın GH100’ü yapımı oldukça zor olan karmaşık bir işlemcidir. Üretimini üç katına çıkarmak için birçok darboğazdan kurtulması gerekiyor.
İlk olarak, GH100 hesaplama GPU’su 814 mm^2 boyutunda devasa bir silikon parçasıdır, dolayısıyla büyük hacimlerde üretilmesi oldukça zordur. Her ne kadar ürünün verimi şu ana kadar muhtemelen oldukça yüksek olsa da, Nvidia’nın GH100 tabanlı ürünlerinin üretimini üç katına çıkarmak için TSMC’den çok sayıda 4N levha tedarikini güvence altına alması gerekiyor. Kaba bir tahmin, TSMC ve Nvidia’nın 300 mm yonga başına en fazla 65 yonga alabileceğini gösteriyor.
Bu tür 2 milyon yongayı üretmek için yaklaşık 31.000 yonga plakası gerekir; kesinlikle mümkün, ancak bu, TSMC’nin ayda 150.000 civarında olan toplam 5nm sınıfı yonga plakası üretiminin oldukça büyük bir kısmıdır. Ve bu kapasite şu anda AMD CPU/GPU, Apple, Nvidia ve diğer şirketler arasında paylaşılıyor.
İkinci olarak GH100, HBM2E veya HBM3 belleğe dayanıyor ve TSMC’nin CoWoS ambalajını kullanıyor, dolayısıyla Nvidia’nın bu cephede de tedariki güvence altına alması gerekiyor. Şu anda TSMC, CoWoS ambalajına olan talebi karşılamakta zorlanıyor.
Üçüncüsü, H100 tabanlı cihazlar HBM2E, HBM3 veya HBM3E belleği kullandığından, Nvidia’nın Micron, Samsung ve SK Hynix gibi şirketlerden yeterli miktarda HBM bellek paketi alması gerekecek.
Son olarak, Nvidia’nın H100 bilgi işlem kartlarının veya SXM modüllerinin bir yere kurulması gerekiyor, bu nedenle Nvidia’nın ortaklarının AI sunucularının çıktılarının en az üç katına çıkmasını sağlaması gerekecek ki bu da başka bir endişe kaynağı.
Ancak eğer Nvidia gerekli tüm H100 GPU’ları sağlayabilirse, gelecek yıl bu çabadan kesinlikle büyük bir kâr elde edecek.