Google, artık özel önizlemede kullanılabilen yeni A3 bulut süper bilgisayarını duyurdu.
Yeni güç merkezi, Makine Öğrenimi (ML) modellerini eğitmek için kullanılabilir ve teknoloji devinin yapay zeka amaçları için bulut altyapısı sunmaya yönelik son hamlesini sürdürebilir. G2 (yeni sekmede açılır)yeni NVIDIA L4 Tensor Core GPU’yu kullanan ilk bulut Sanal Makinesi (VM).
İçinde Blog yazısı (yeni sekmede açılır)şirket, “Google Compute Engine A3 süper bilgisayarları, günümüzün üretken yapay zekasına ve büyük dil modeli yeniliğine güç veren en zorlu yapay zeka modellerini eğitmek ve onlara hizmet etmek için özel olarak üretildi.”
A2 ve A3
A3, önceki A2’ye güç sağlamak için kullanılan popüler A100’ün halefi olan Nvidia H100 GPU’yu kullanır. Ayrıca, geçen yıl Kasım ayında piyasaya sürüldüğünde üretken AI yarışını başlatan AI yazarı ChatGPT’ye güç sağlamak için de kullanılıyor.
A3 aynı zamanda, GPU’ların Google’ın özel olarak tasarlanmış 200 Gb/sn VPU’larını kullanacağı ve önceki A2 VM’lerinin ağ bant genişliğinin on katına izin veren ilk VM’dir.
A3 ayrıca, Google’ın birbirine bağlı on binlerce GPU’ya ölçeklenebilen ve “talep üzerine topolojiyi ayarlayabilen tam bant genişliği yeniden yapılandırılabilir optik bağlantılara izin veren” Jüpiter veri merkezini kullanacak.
Google ayrıca “iş yükü bant genişliğinin … daha pahalı, kullanıma hazır, engellemeyen ağ yapılarından ayırt edilemez olduğunu ve bunun da daha düşük bir TCO ile sonuçlandığını” iddia ediyor. A3 ayrıca “26 adede kadar exaFlop yapay zeka performansı sağlar, bu da büyük makine öğrenimi modellerini eğitmek için gereken süreyi ve maliyetleri önemli ölçüde artırır.”
Üretken yapay zekanın gerçekleştirdiği asıl iş olan çıkarım iş yükleri söz konusu olduğunda Google, A3’ün A2’ye göre 30 kat daha fazla çıkarım performansı elde ettiğine dair bir kez daha cesur bir iddiada bulunuyor.
Aralarında 3,6 TB/s iki bölümlü bant genişliği olan sekiz H100’e ek olarak, A3’ün diğer öne çıkan özellikleri arasında yeni nesil 4.
NVIDIA’da hiper ölçek ve yüksek performanslı bilgi işlemden sorumlu başkan yardımcısı Ian Buck, “Google Cloud’un yeni nesil NVIDIA H100 GPU’ları tarafından desteklenen A3 VM’leri, üretken yapay zeka uygulamalarının eğitimini ve sunumunu hızlandıracak” dedi.
Google I/O 2023’te ücretsiz bir duyuruda (yeni sekmede açılır)şirket ayrıca, Vertex AI’daki üretici AI desteğinin artık daha fazla müşteri tarafından kullanılabileceğini ve bunun bakım ihtiyacını ortadan kaldıran tam olarak yönetilen altyapı üzerinde makine öğrenimi modellerinin oluşturulmasına olanak tanıyacağını söyledi.
Müşteriler ayrıca A3’ü Google Kubernetes Engine (GKE) ve Compute Engine üzerinde dağıtabilir, bu da otomatik ölçeklendirme ve iş yükü düzenleme konusunda destek almalarının yanı sıra otomatik yükseltmelere hak kazanabilecekleri anlamına gelir.
Görünüşe göre Google, yapay zeka söz konusu olduğunda, belki de ChatGPT rakibi Google Bard’ın uğursuz lansmanı nedeniyle yanmış olan herkesin oynaması için bir yapay zekayı serbest bırakmak yerine B2B yaklaşımını benimsiyor. Bununla birlikte, halefi olan ve diğer LLM’lerden daha güçlü olduğu varsayılan PaLM 2’yi Google I/O’da duyurdu, bu yüzden bu alanı izlememiz gerekecek.