Nvidia, 144 çekirdekli bir canavar olan yaklaşmakta olan Grace CPU Superchip hakkında yeni bilgiler sundu. sunucu AI ve HPC iş yüklerini hızlandırmak için oluşturulmuş işlemci.
Hot Chips 34’teki sunumundan önce şirket, işlemci TSMC’nin ürünlerinin belirli özelliklerine göre ayarlanmış 4nm işlem düğümünün özel bir versiyonunda üretilmiştir.
Team Green ayrıca, 900 GB/s’ye kadar veri sağlarken PCIe 5.0 arayüzünden 5 kat daha az güç tükettiği söylenen NVLink-C2C ara bağlantısı (çift CPU süper çipini mümkün kılan “köprü”) için güç verimliliği rakamlarını yayınladı. diğer kıyaslama verilerinin yanı sıra verim.
Grace CPU Süper Çipi
Bu yılın başlarında GTC 2022’de tanıtılan Grace CPU Superchip, Apple’ın M1 Ultra’sına benzer şekilde yüksek hızlı NVLink ara bağlantısıyla birbirine bağlanan iki Grace CPU’dan oluşuyor.
Sonuç, Nvidia’nın AI’dan HPC’ye ve daha fazlasına kadar değişen iş yükleri için piyasadaki en hızlı işlemci olacağını iddia ettiği 1 TB/s bellek bant genişliğine ve 396 MB çip üzerinde önbelleğe sahip 144 çekirdekli bir canavar.
Nvidia CEO’su Jensen Huang, yeni çip ilk duyurulduğunda, “Yeni bir tür veri merkezi ortaya çıktı – zeka üretmek için veri dağlarını işleyen ve iyileştiren AI fabrikaları” dedi.
“Grace CPU Superchip, en yüksek performansı, bellek bant genişliğini ve Nvidia yazılım platformlarını tek bir çipte sunuyor ve dünyanın AI altyapısının CPU’su olarak parlayacak.”
Yeni süper çipin ne zaman yaygın olarak kullanıma sunulacağı belirsizliğini koruyor olsa da, Nvidia geçtiğimiz günlerde 2023’ün ilk yarısında piyasaya sürülecek bir dizi yeni önceden oluşturulmuş sunucuda yer alacağını açıkladı. Yeni sistemler – Asus, Gigabyte, Supermicro ve diğerleri – Nvidia tarafından Computex 2022’de tanıtılan dört yeni 2U referans tasarımına dayanacak.
Dört tasarımın her biri, bulut oyunlarından dijital ikizlere, HPC ve AI’ya kadar belirli kullanım durumlarına hitap edecek şekilde belirlendi. Nvidia, tasarımların ortaklar tarafından “mevcut sistem mimarilerinden yararlanan anakartları hızla döndürmek” için kolayca değiştirilebileceğini söylüyor.
Nvidia’nın sunucu pazarına girişi, Intel Xeon ve AMD EPYC yongalarının dayandığı mimari olan x86’nın payını yemesi beklenen Arm tabanlı yongaların ilerlemesini daha da hızlandıracak.
Veri merkezinde Arm tabanlı çiplerin benimsenmesi, aynı zamanda, aşağıdakiler arasında özel Arm tabanlı silikonun geliştirilmesiyle de desteklenmiştir. bulut sağlayıcılar ve diğer web devleri. bu Graviton serisi AWS tarafından geliştirilen büyük bir başarı olduğunu kanıtladı, Çinli firma AliBaba üzerinde çalışıyor yeni 128 çekirdekli işlemcive hem Microsoft hem de Meta dedikodu şirket içi çipler de geliştirmek.
“Yıllar boyunca birçok girişim veri merkezinde Arm yapmaya çalıştı. Başlangıçta, değer önerisi düşük güçle ilgiliydi, ancak veri merkezi operatörleri performansı gerçekten önemsiyor. Bu, mümkün olduğu kadar fazla hesaplamayı bir rafa paketlemekle ilgilidir,” Chris Bergey, Arm’da Altyapı Kıdemli Başkan Yardımcısı, TechRadar Pro’ya bu yılın başlarında söyledi.
“Arm ile bulut sağlayıcıları daha fazla bilgi işlem alabileceklerini keşfediyorlar, çünkü bir güç zarfına daha fazla çekirdek koyabiliyorlar. Ve biz daha buzdağının ucundayız.”
Aracılığıyla Tom’un Donanımı (yeni sekmede açılır)