Çip devi Nvidia, yapay zeka dünyasına uzun süre gölge düşürme eğiliminde olsa da, en son kıyaslama test sonuçlarına göre pazardaki rekabeti ortadan kaldırma yeteneği artabilir.

Popüler bir makine öğrenimi performansı testini denetleyen endüstri konsorsiyumu MLCommons, MLPerf, Çarşamba günü yapay sinir ağlarının “eğitimi” ile ilgili en son rakamları yayınladı. Üç yıl içinde Nvidia’nın tek bir rakibi oldu: işlemci devi Intel.

Haziran ayındaki en sonuncusu da dahil olmak üzere önceki turlarda Nvidia, “Tensor Processing Unit” çipi veya TPU ile Intel, Google ve İngiliz startup Graphcore’dan gelen çiplerin yanı sıra Çinli telekomünikasyon devi dahil olmak üzere iki veya daha fazla rakibe sahipti. Huawei daha önceki turlarda.

Nvidia en yüksek puanları aldı

Rekabet eksikliği nedeniyle, Nvidia bu sefer en yüksek puanları alırken, Haziran ayında şirket Google ile birinciliği paylaştı. Nvidia, birkaç yıl önce piyasaya sürülen A100 GPU’sunun yanı sıra bilgisayar öncüsü Grace Hopper’ın onuruna “Hopper” GPU olarak bilinen yepyeni H100’ü kullanan sistemleri sergiledi. H100, internette insanlara ürün önermek için yaygın olarak kullanılan sözde öneri sistemleri için sekiz kıyaslama testinden birinde en yüksek puanı aldı.

Intel, Habana Gaudi2 yongalarını kullanan iki sistemin yanı sıra, kod adı “Sapphire Rapids” olan, yaklaşmakta olan Xeon sunucu yongasını içeren “önizleme” etiketli sistemler sundu.

Intel’in sistemlerinin Nvidia’nınkinden çok daha yavaş olduğu kanıtlandı.

Nvidia bir basın açıklamasında, “H100 (aka Hopper) GPU’lar, sekiz MLPerf kurumsal iş yükünün tümünde eğitim modelleri için dünya rekorları kırdı. MLPerf eğitimine ilk tabi tutulduklarında önceki nesil GPU’lardan 6,7 kata kadar performans sağladılar. Aynı karşılaştırmada, günümüzün A100 GPU’ları, yazılım geliştirmeleri sayesinde 2,5 kat daha güçlü.”

Resmi bir basın toplantısında, Nvidia’da Yapay Zeka ve Bulut Kıdemli Ürün Müdürü Dave Salvator, Hopper’ın performans iyileştirmelerine ve A100’deki yazılım değişikliklerine odaklandı. Salvatore, hem Hopper’ın A100’e göre performansı nasıl hızlandırdığını gösterdi – Nvidia’nın Nvidia’ya karşı bir testi – ve ayrıca Hopper’ın hem Intel Gaudi2 yongalarını hem de Rapids Sapphire’ı nasıl durdurabildiğini gösterdi.

Google ve Graphcore, yarışmada yok

MLPerf’in önceki turlarında, bireysel satıcıların yalnızca daha sonraki bir turda geri dönmek için rekabetten çıkmayı tercih ettiği göz önüne alındığında, farklı satıcıların olmaması kendi başına bir eğilimin göstergesi değildir.

Google, ZDNET’in bu sefer neden katılmadığına ilişkin yorum talebine yanıt vermedi.

Bir e-postada Graphcore, ZDNET’e mühendislerinin zamanını MLPerf için gönderimleri hazırlamak için geçen haftalar veya aylar dışındaki şeylere harcamaya karar verdiğini söyledi.

Graphcore iletişim yöneticisi Iain McKenzie, ZDNET’e e-posta yoluyla “Azalan getiri sorunu gündeme geldi,” dedi, “sonsuzluğa kaçınılmaz bir sıçrama olacak, saniyeler daha kısa olacak, daha büyük sistem konfigürasyonları ön plana çıkacak.”

Iain McKenzie, ZDNET’e verdiği demeçte, Graphcore “gelecekteki MLPerf turlarına katılabilir, ancak şu anda bu, AI’nın en heyecan verici ilerlemeyi gördüğümüz alanlarını yansıtmıyor” dedi.

Bunun yerine, “enerjimizi gerçekten AI uygulayıcıları için yeni yeteneklerin kilidini açmaya odaklamak istiyoruz” dedi. Bu amaçla, Iain McKenzie, Graphcore’dan “yakında heyecan verici bir ilerleme görmeyi bekleyebilirsiniz” dedi.

Farklı performans seviyeleri

Nvidia’nın rekabete hakim olan çiplerinin yanı sıra, en yüksek puan alan bilgisayar sistemlerinin tümü, ortaklarının değil Nvidia tarafından yapılanlardı. Bu aynı zamanda kıyaslama testinin önceki sürümlerinden bir değişikliktir. Genellikle Dell gibi belirli satıcılar, Nvidia yongalarıyla oluşturdukları sistemler için en yüksek notları alır. Bu sefer, hiçbir sistem satıcısı, yongalarının Nvidia tarafından kullanılması konusunda Nvidia’yı yenemedi.

MLPerf eğitim değerlendirme testleri, bilgisayar programı belirli bir görev için gereken minimum kesinliği elde edene kadar “ağırlıkları” veya sinirsel parametreleri ayarlamak için geçen dakika sayısını gösterir, bu süreç “eğitim” olarak adlandırılır. daha kısa sürenin tercih edildiği bir sinir ağı .

En yüksek puanlar genellikle manşetlerde yer alırken – ve satıcılar tarafından abartılıyor – gerçekte, MLPerf sonuçları yalnızca bir en yüksek puanı değil, çok çeşitli sistemleri ve çok çeşitli puanları içerir.

Bir telefon görüşmesinde, MLCommons yönetici direktörü David Kanter, ZDNET’e sadece yüksek puanlara odaklanmamasını söyledi. David Kanter’e göre, AI donanımı satın almayı düşünen şirketler için test paketinin değeri, farklı boyutlarda ve farklı performans türlerinde çok çeşitli sistemlere sahip olmaktır.

Yüzlerce sayıdaki girişler, birkaç sıradan mikroişlemciye sahip makinelerden, en iyi puanı alan sistem türü olan binlerce AMD ana işlemciye ve binlerce Nvidia GPU’ya sahip makinelere kadar uzanmaktadır.

David Kanter, ZDNET’e şunları söyledi: “Konu ML eğitimi ve çıkarımı olduğunda, tüm farklı performans seviyeleri için çok çeşitli ihtiyaçlar vardır ve hedefin bir kısmı, tüm bu farklı ölçeklerde kullanılabilecek performans ölçümleri sağlamaktır. “

David Kanter, “Daha küçük sistemlerin bazıları hakkında daha büyük ölçekli sistemlerde olduğu kadar bilgi değeri var” dedi. “Bu sistemlerin tümü eşit derecede alakalı ve önemlidir, ancak belki de farklı insanlar için.”

Bazen gerileyen puanlar

Bu sefer Graphcore ve Google’dan katılım eksikliğine gelince, David Kanter “Daha fazla uygulama görmek istiyorum” diyerek ekledi, “Birçok şirketin mühendislik kaynaklarına nasıl yatırım yapacaklarını seçmeleri gerekebileceğini anlıyorum. “

David Kanter, “Bence bu şeylerin farklı döngülerde zaman içinde gelip gittiğini göreceksiniz” dedi.

Nvidia için rekabetin azlığının ilginç bir yan etkisi, belirli eğitim görevlerindeki en yüksek puanların bazılarının sadece önceki zamana göre bir gelişme göstermediği, aksine bir gerileme gösterdiği anlamına geliyor.

Örneğin, bir sinir ağının milyonlarca görüntüye bir sınıflandırma etiketi atamak üzere eğitildiği saygıdeğer ImageNet görevinde, bu seferki en iyi sonuç, Nvidia tarafından inşa edilen ve 19 saniye. Bu sonuç, Google’ın yalnızca 11,5 saniye ve 14 saniye süren “TPU” çip sonuçlarıyla geride kaldı.

Daha önceki bir uygulamayı tekrarlama konusunda sorulan Nvidia, e-posta yoluyla ZDNET’e bu sefer odak noktasının A100 değil H100 yongası olduğunu söyledi. Nvidia, 2018’deki ilk A100 sonuçlarından bu yana ilerleme kaydedildiğini de kaydetti. Bu eğitim kriterleri döngüsünde, 8 şeritli bir Nvidia sisteminin ResNet-50’yi eğitmesi yaklaşık 40 dakika sürdü. Bu haftanın sonuçlarında bu süre otuz dakikanın altına inmişti.

Standartları ayarlayın

Nvidia’dan Dave Salvatore, rekabetçi tekliflerin eksikliği ve MLPerf’in uygulanabilirliği hakkında gazetecilere, “Bu adil bir soru” yanıtını verdi ve “Katılımı teşvik etmek için elimizden gelen her şeyi yapıyoruz; endüstrinin kriterleri katılım üzerinde gelişiyor.”

Dave Salvatore, “Başkaları tarafından pazara yeni çözümler getirilmeye devam ettikçe, onların kendi puan performans iddialarını ortaya koymak yerine bu çözümlerin faydalarını ve kalitesini endüstri standardı bir kıyaslamada göstermek isteyeceklerini umuyoruz,” diye ekledi. doğrulaması çok zor.”

Dave Salvatore’a göre, MLPerf’in temel unsurlarından biri, test yapılandırmasının ve kodunun titiz bir şekilde yayınlanmasıdır, böylece sonuçlar düzinelerce şirketten yüzlerce uygulama arasında net ve tutarlıdır.

MLPerf için uygulama testi sonuçlarının yanı sıra MLCommons, Çarşamba günü bilimsel hesaplama ve süper bilgisayarlar anlamına gelen süper hesaplama için test sonuçlarını da yayınladı. Bu başvurular, Nvidia ve ortaklarının yanı sıra Fujitsu’nun kendi çiplerini kullanan Fugaku süper bilgisayarlarının bir karışımını içeriyordu.

TinyML: Grenoble’dan GreenWaves öne çıkıyor

TinyML adlı üçüncü bir yarışma, makine öğreniminin eğitimli bir sinir ağının tahminler yaptığı kısmı olan çıkarımdaki düşük güçlü yongaların ve gömülü yongaların performansını ölçer.

Nvidia’nın şimdiye kadar girmediği bu yarışma, çip üreticileri Silicon Labs ve Qualcomm, Avrupa teknoloji devi STMicroelectronics ve yeni kurulan OctoML, Syntiant ve GreenWaves Technologies gibi satıcılardan ilginç bir çip ve giriş çeşitliliğine sahip.

TinyML’nin testlerinden birinde, CIFAR veri kümesini ve ResNet sinir ağını kullanan bir görüntü tanıma testi, Grenoble merkezli GreenWaves, veri işlemede ve tahminde bulunmada en düşük gecikme için en yüksek puanı aldı. Şirket, bir RISC işlemcisi ile ilişkili yapay zeka hızlandırıcısı Gap9’u sundu.

GreenWaves, Gap9’un “MobileNet serisi gibi sınıflandırma ve algılama görevlerinde orta karmaşıklıktaki sinir ağlarında ve aynı zamanda karmaşık karma hassasiyetli tekrarlayan sinir ağlarında olağanüstü düşük güç tüketimi sağladığını” belirtti.

Kaynak : ZDNet.com



genel-15