Microsoft’un yeni AI odaklı Azure sunucuları, AMD’nin MI300X veri merkezi GPU’ları tarafından destekleniyor ancak Intel’in Xeon Sapphire Rapids CPU’larıyla eşleşiyor. AMD’nin amiral gemisi olan dördüncü nesil EPYC Cenova CPU’ları güçlüdür ancak Sapphire Rapids’in yapay zeka hesaplama GPU’larını ilerletme konusunda birkaç önemli avantajı var gibi görünüyor. Sapphire Rapids’i seçen sadece Microsoft değil, Nvidia da bunu AMD’nin mevcut nesil EPYC yongalarına tercih ediyor gibi görünüyor.
Microsoft’u, AMD’nin Cenova’sı yerine Intel’in Sapphire Rapids’ini kullanmaya ikna eden muhtemelen birkaç faktör var, ancak Intel’in Gelişmiş Matris Uzantıları (veya AMX) talimatlarını desteklemesi, Microsoft’un Sapphire Rapids’i seçmesinin önemli nedenleri arasında olabilir. Intel’e göre bu talimatlar, yapay zeka ve makine öğrenimi görevlerini yedi kata kadar hızlandırmaya yönelik olarak tasarlandı.
Sapphire Rapids özellikle verimli olmasa da ve Cenova’dan daha kötü çoklu iş parçacığı performansına sahip olsa da, tek iş parçacıklı performansı bazı iş yükleri için oldukça iyidir. Bu yalnızca yapay zeka iş yüklerine özel olarak yardımcı olan bir şey değildir; bu sadece bazı bilgi işlem türlerinde genel bir avantajdır.
Ayrıca Nvidia’nın veri merkezi sınıfı GPU’larını kullanan sunucuların, Nvidia’nın kendi DGX H100 sistemleri de dahil olmak üzere Sapphire Rapids ile uyumlu olduğunu da belirtmekte fayda var. Nvidia’nın CEO’su Jensen Huang, Sapphire Rapids’in “mükemmel tek iş parçacıklı performansının” DGX H100 için AMD yerine Intel’in işlemcilerini istemesinin özel bir nedeni olduğunu söyledi.
Yeni Azure bulut sunucuları aynı zamanda Nvidia’nın Quantum-2 CX7 InfiniBand anahtarlarını da içeriyor ve üç teknoloji devinin donanımlarını bir araya getiriyor. Bu, yapay zekanın son teknoloji dünyasında şirketlerin iş için genel olarak en iyi donanımı istediklerini ve rekabete bakılmaksızın bunu kimin yapacağı konusunda özellikle seçici olmadıklarını gösteriyor.
Her biri 192 GB HBM3 bellek içeren sekiz MI300X GPU ile bu yapay zeka odaklı Azure örnekleri, yapay zeka eğitimi için çok önemli olan birleşik 1.536 GB VRAM sunuyor. Tüm bu VRAM, muhtemelen Microsoft’un Nvidia’nın Hopper GPU’ları yerine MI300X’i seçmesinin büyük bir nedeniydi. En yeni ve en iyi H200 yongasında bile GPU başına yalnızca 141 GB HBM3e bulunur; bu, MI300X’ten çok daha düşük bir miktardır.
Microsoft ayrıca AMD’nin açık kaynaklı ROCm yazılımına da övgüde bulundu. AMD, ROCm’yi, profesyonel ve sunucu grafiklerine büyük ölçüde hakim olan Nvidia’nın CUDA yazılım yığınıyla aynı seviyeye getirmek için yoğun bir şekilde çalışıyor. Microsoft’un ROCm’ye olan güveni belki de AMD’nin donanım-yazılım ekosisteminin hızla geliştiğinin bir işareti.