Nvidia, IBM ve araştırmacıların makine öğreniminde çalışanların hayatlarını biraz daha kolaylaştıracak bir planı var: GPU’ları doğrudan SSD’lere bağlamak.
Ayrıntılı bir Araştırma kağıdıfikir Büyük hızlandırıcı Bellek (BaM) olarak adlandırılır ve GPU’ları doğrudan büyük miktarlarda SSD depolamaya bağlamayı içerir ve ML eğitimi ve diğer yoğun görevler için bir darboğazın çözülmesine yardımcı olur.
Araştırmacılar, “BaM, GPU iş parçacıklarının, hesaplama tarafından belirlendiği üzere, isteğe bağlı olarak küçük miktarlarda veri okumasını veya yazmasını sağlayarak G/Ç trafiği amplifikasyonunu azaltıyor” diye yazıyor.
Hız ve güvenilirlik artışı
“BaM’nin amacı, GPU bellek kapasitesini genişletmek ve etkin depolama erişim bant genişliğini geliştirirken, GPU iş parçacıklarının genişletilmiş bellek hiyerarşisindeki devasa veri yapılarına kolayca isteğe bağlı, ince taneli erişim yapması için üst düzey soyutlamalar sağlamaktır.”
Nihai hedef, Nvidia GPU’larının donanım hızlandırmalı genel amaçlı CPU’lara olan güvenini azaltmaktır. Nvidia GPU’ların doğrudan depolamaya erişmesine ve ardından onu işlemesine izin vererek, çalışma mevcut en özel araçlar tarafından yürütülüyor.
Wham BaM Shang-A-Lang
Teknik detaylar oldukça karmaşıktır (öneriyoruz gazete okumak bu sizin alanınızsa) ancak özü iki yönlüdür.
BaM, GPU iş parçacıklarının doğrudan NVMe SSD’lerde depolanan verileri talep edebileceği bir kitaplığın yanı sıra yazılım tarafından yönetilen bir GPU belleği önbelleği kullanır. Aralarındaki bilgilerin taşınması GPU’lar tarafından gerçekleştirilir.
Sonuç olarak, makine öğrenimi eğitimi ve diğer yoğun etkinlikler verilere daha hızlı ve daha da önemlisi, iş yüklerine yardımcı olacak belirli şekillerde erişebilir. Testlerde bu doğrulandı: GPU’lar ve SSD’ler birlikte iyi çalıştı ve verileri hızla aktardı.
Ekipler, nihayetinde donanım ve yazılım tasarımlarını açık kaynaklı hale getirmeyi planlıyor, bu da makine öğrenimi topluluğu için büyük bir kazanç.
Üzerinden Kayıt