Nvidia, yıllık GTC konferansında bir dizi AI odaklı kurumsal ürün duyurdu. Bunlar, yeni silikon mimarisi Hopper’ın ayrıntılarını içerir; bu mimari kullanılarak oluşturulan ilk veri merkezi GPU’su olan H100; ve şirketin Eos adlı dünyanın en hızlı AI süper bilgisayarı olacağını iddia ettiği şeyi inşa etmek için belirsiz planlar.

Nvidia, popüler, veri yoğun derin öğrenme yöntemleri için mükemmel bir eşleşme olduğunu kanıtlayan GPU’ları ile son on yılın AI patlamasından büyük ölçüde yararlandı. Yapay zeka sektörünün veri hesaplama talebi arttıkça, Nvidia daha fazla ateş gücü sağlamak istediğini söylüyor.

Şirket, özellikle Transformer olarak bilinen bir tür makine öğrenimi sisteminin popülaritesini vurguladı. OpenAI’nin GPT-3’ü gibi dil modellerinden DeepMind’s AlphaFold gibi tıbbi sistemlere kadar her şeye güç sağlayan bu yöntem inanılmaz derecede verimli oldu. Bu tür modeller, birkaç yıl içinde katlanarak büyümüştür. Örneğin OpenAI, GPT-2’yi 2019’da piyasaya sürdüğünde 1,5 milyar parametre (veya bağlantı) içeriyordu. Google, sadece iki yıl sonra benzer bir modeli eğittiğinde, 1.6 trilyon parametreler.

Nvidia’nın ürün yönetimi kıdemli direktörü Paresh Kharya bir basın brifinginde “Bu dev modellerin eğitimi hala aylar alıyor” dedi. “Yani bir işi kovuyorsun ve ne olacağını görmek için bir buçuk ay bekliyorsun. Bu eğitim süresini azaltmanın temel zorluklarından biri, bir veri merkezindeki GPU sayısını artırdıkça performans kazanımlarının azalmaya başlamasıdır.”

Nvidia, yeni Hopper mimarisinin bu zorlukların giderilmesine yardımcı olacağını söylüyor. Adını öncü bilgisayar bilimcisi ve ABD Donanması Tuğamiral Grace Hopper ile birlikte, mimari, Transformer modellerinin H100 GPU’larda eğitimini önceki nesil yongalara kıyasla altı kat hızlandırmak için özelleştirilirken, yeni dördüncü nesil Nivida NVlink, dokuz kez 256’ya kadar H100 GPU’yu bağlayabilir. önceki nesilden daha yüksek bant genişliği. H100 GPU’nun kendisi 80 milyar transistör içerir ve PCle Gen5’i destekleyen ve HBM3’ü kullanan ve 3 TB/sn’lik bellek bant genişliği sağlayan ilk GPU’dur.

Kharya, “Dev Transformer modellerinin eğitimi için, H100, eskiden haftalar süren eğitimden dokuz kata kadar daha yüksek performans, günler içinde eğitim sunacak” dedi.

Nvidia, donanım ve altyapı haberlerine ek olarak, Maxine (sanal avatarlar gibi şeyleri güçlendirmeyi amaçlayan ses ve video geliştirmeleri sağlayan bir SDK) ve Riva (her iki konuşma tanıma için kullanılan bir SDK) dahil olmak üzere çeşitli kurumsal AI yazılım hizmetlerinde güncellemeler duyurdu. ve metinden konuşmaya).

Şirket ayrıca, konuşlandırıldığında dünyanın en hızlısı olacağını iddia ettiği yeni bir AI süper bilgisayarı inşa ettiğini söyledi. Eos adlı süper bilgisayar, Hopper mimarisi kullanılarak oluşturulacak ve 18.4 exaflop “AI performansı” sunmak için yaklaşık 4.600 H100 GPU içerecek. Sistem yalnızca Nvidia’nın dahili araştırmaları için kullanılacak ve şirket birkaç ay içinde çevrimiçi olacağını söyledi.

Son birkaç yılda, yapay zekaya büyük ilgi duyan bir dizi şirket, Microsoft, Tesla ve Meta dahil olmak üzere dahili araştırmalar için kendi kurum içi “AI süper bilgisayarlarını” kurdu veya duyurdu. Bu sistemler, daha düşük bir doğruluk düzeyinde çalıştıkları için normal süper bilgisayarlarla doğrudan karşılaştırılamazlar ve bu da bir dizi firmanın dünyanın en hızlısını ilan ederek birbirlerini hızla atlamasına olanak tanır.

Bununla birlikte, açılış konuşmasında, Nvidia CEO’su Jensen Huang, Eos’un geleneksel süper bilgisayar görevlerini yürütürken 275 petaFLOPS bilgi işlem gerçekleştireceğini söyledi – “ABD’deki en hızlı bilim bilgisayarından” (Zirve) 1,4 kat daha hızlı. Huang, “Eos’un dünyadaki en hızlı AI bilgisayarı olmasını bekliyoruz” dedi. “Eos, OEM’lerimiz ve bulut ortaklarımız için en gelişmiş yapay zeka altyapısının planı olacak.”



genel-2

Bir yanıt yazın