ABD’li çip tasarımcısı ve bilgi işlem firması Nvidia Çarşamba günü, bulutta yoğun yapay zeka hesaplama işini yürütmek için “devasa” bir bilgisayar oluşturmak için Microsoft ile birlikte çalıştığını söyledi.
AI bilgisayarı, Nvidia’nın en güçlü H100’ü ve A100 yongaları olan on binlerce grafik işleme birimi (GPU’lar) kullanarak Microsoft’un Azure bulutunda çalışacak. Nvidia, anlaşmanın ne kadar değerinde olduğunu söylemeyi reddetti, ancak endüstri kaynakları, her bir A100 yongasının yaklaşık 10.000 ABD Doları (kabaca 8.15.400 Rs) ila 12.000 ABD Doları (kabaca 9.78.500 Rs) arasında fiyatlandırıldığını ve H100’ün çok daha pahalı olduğunu söyledi. o.
Nvidia’nın Hiper Ölçek ve HPC genel müdürü Ian Buck, Reuters’e verdiği demeçte, “Yapay zekanın işletmeye geldiği ve müşterilerin yapay zekayı ticari kullanım durumları için dağıtmak için kullanabilecekleri bu hizmetleri oraya götürmenin gerçeğe dönüştüğü bir dönüm noktasındayız.” “Yapay zekanın benimsenmesinde büyük bir artış görüyoruz… ve yapay zekayı kurumsal kullanım senaryoları için uygulama ihtiyacına sahibiz.”
Microsoft’a çip satmanın yanı sıra Nvidia, AI modelleri geliştirmek için yazılım ve bulut deviyle ortaklık kuracağını söyledi. Buck, Nvidia’nın ayrıca Microsoft’un AI bulut bilgisayarının müşterisi olacağını ve müşterilere hizmet sunmak için üzerinde AI uygulamaları geliştireceğini söyledi.
Doğal dil işleme için kullanılanlar gibi yapay zeka modellerinin hızlı büyümesi, daha hızlı, daha güçlü bilgi işlem altyapısına olan talebi keskin bir şekilde artırdı.
Nvidia, Azure’un saniyede 400 gigabit hıza sahip Quantum-2 InfiniBand ağ teknolojisini kullanan ilk genel bulut olacağını söyledi. Bu ağ teknolojisi, sunucuları yüksek hızda bağlar. Yoğun AI bilgi işlem işi, birkaç sunucuda birlikte çalışmak için binlerce çip gerektirdiğinden bu önemlidir.
© Thomson Reuters 2022