Microsoft’un yeni AI odaklı Azure sunucuları, AMD’nin MI300X veri merkezi GPU’ları tarafından destekleniyor ancak Intel’in Xeon Sapphire Rapids CPU’larıyla eşleşiyor. AMD’nin amiral gemisi olan dördüncü nesil EPYC Cenova CPU’ları güçlüdür ancak Sapphire Rapids’in yapay zeka hesaplama GPU’larını ilerletme konusunda birkaç önemli avantajı var gibi görünüyor. Sapphire Rapids’i seçen sadece Microsoft değil, Nvidia da bunu AMD’nin mevcut nesil EPYC yongalarına tercih ediyor gibi görünüyor.

Microsoft’u, AMD’nin Cenova’sı yerine Intel’in Sapphire Rapids’ini kullanmaya ikna eden muhtemelen birkaç faktör var, ancak Intel’in Gelişmiş Matris Uzantıları (veya AMX) talimatlarını desteklemesi, Microsoft’un Sapphire Rapids’i seçmesinin önemli nedenleri arasında olabilir. Intel’e göre bu talimatlar, yapay zeka ve makine öğrenimi görevlerini yedi kata kadar hızlandırmaya yönelik olarak tasarlandı.

Sapphire Rapids özellikle verimli olmasa da ve Cenova’dan daha kötü çoklu iş parçacığı performansına sahip olsa da, tek iş parçacıklı performansı bazı iş yükleri için oldukça iyidir. Bu yalnızca yapay zeka iş yüklerine özel olarak yardımcı olan bir şey değildir; bu sadece bazı bilgi işlem türlerinde genel bir avantajdır.



genel-21