Micron bugün, şirketin veri merkezi ve AI sınıfı GPU’lara yönelik en yeni belleği olan HBM3E belleği için toplu üretime başladığını duyurdu. Özellikle, Micron HBM3E’yi söylüyor Nvidia’nın yılın ikinci çeyreğinde altı adet HBM3E bellek yongasıyla piyasaya sürülmesi planlanan H200 modeli için kullanılıyor. Ek olarak Micron, Mart ayında Nvida’nın GTC konferansında yakında çıkacak olan 36GB HBM3E yongalarının ayrıntılarını açıklayacağını da söyledi.
Normal HBM3 ile karşılaştırıldığında HBM3E, bant genişliğini 1 TB/s’den 1,2 TB/s’ye kadar artırır; bu, performansta mütevazı ama fark edilir bir artıştır. HBM3E ayrıca çip başına maksimum kapasiteyi 36 GB’a çıkarıyor, ancak Micron’un Nvidia’nın H200’ü için HBM3E’si, HBM3’ün maksimumuyla aynı seviyede, çip başına “sadece” 24 GB olacak. Bu çipler ayrıca HBM3E’nin teorik olarak sunabileceği maksimum 12 yığın yerine sekiz yüksek yığını da destekliyor. Micron, özel HBM3E belleğinin, kendi HBM3E uygulamalarına sahip olan rakipleri Samsung ve Sk hynix’ten %30 daha düşük güç tüketimine sahip olduğunu iddia ediyor.
Micron, Nvidia’ya H200 için HBM3E sağlayan tek şirketin olup olmayacağını söylemedi ve muhtemelen de olmayacak. Nvidia’nın AI GPU’larına o kadar çok talep var ki, şirketin hem Micron hem de Sk hynix’ten 1,3 milyar dolar değerinde HBM3E belleği ön satın aldığı bildiriliyor; buna rağmen Sk hynix’in belleğinin bant genişliği yalnızca 1,15 TB/s ve Micron’a göre daha fazla güç kullanıyor. Ancak Nvidia için biraz daha düşük performanslı bir ürün satabilmek, talep göz önüne alındığında fazlasıyla değecek bir şey.
Ancak Micron, en hızlı HBM3E’ye sahip olduğunu iddia edemez çünkü Samsung’un Shinebolt HBM3E belleği 1,225TB/s olarak derecelendirilmiştir. Yine de Micron, söyleyebileceğimiz kadarıyla en azından ilk hacimli üretime sahip olduğunu iddia edebilir. Ne Samsung ne de Sk hynix hacimli üretime ulaştıklarını söylemedi, dolayısıyla muhtemelen Micron bu konuda ilk sırada yer alıyor.
AMD ayrıca Micron’un HBM3E müşterisi olabilir. Şirketin CTO’su Mark Papermaster, AMD’nin “HBM3E için tasarım yaptığını” söyleyerek, MI300 GPU’nun bir versiyonunun veya yeni nesil bir ürünün, H200’de bulunan HBM3E’nin aynısını kullanacak şekilde ayarlandığını ima etti. Ancak bunun özellikle Micron’un HBM3E’si olup olmayacağı belli değil.
Micron ayrıca, Mart ayında Nvidia’nın yaklaşan GTC konferansında yakında çıkacak 36GB HBM3E yongaları hakkındaki ayrıntıları paylaşacağını da söyledi. Şirket, 36 GB HBM3E yongalarının 1,2 TB/s’den fazla bant genişliğine, daha fazla güç verimliliğine sahip olacağını ve yığınlama sınırını 12 yongaya getireceğini söylüyor. Bu 36GB’lık modüllerin örneklemesi de Mart ayında başlayacak.