AMD, yapay zeka çipleri satan tek şirketin Nvidia olmadığını insanların hatırlamasını istiyor. Büyük dil modellerini veya LLM’leri çalıştırmaya yönelik yeni hızlandırıcıların ve işlemcilerin mevcut olduğu duyuruldu.

Çip üreticisi, şirketin LLM’leri eğitmek ve çalıştırmak için çalıştığını söylediği Instinct MI300X hızlandırıcıyı ve Instinct M1300A hızlandırılmış işlem ünitesini (APU) tanıttı. Şirket, MI300X’in önceki M1250X versiyonuna göre 1,5 kat daha fazla bellek kapasitesine sahip olduğunu söyledi. AMD, her iki yeni ürünün de öncekilere göre daha iyi bellek kapasitesine sahip olduğunu ve enerji açısından daha verimli olduğunu söyledi.

AMD CEO’su Lisa Su, “LLM’lerin boyutu ve karmaşıklığı artmaya devam ediyor, bu da büyük miktarda bellek ve bilgi işlem gerektiriyor” dedi. “Ve GPU’ların kullanılabilirliğinin, yapay zekanın benimsenmesindeki en önemli etken olduğunu biliyoruz.”

Su, bir sunum sırasında MI300X’in “dünyanın en yüksek performanslı hızlandırıcısı” olduğunu söyledi. MI300X’in, yüksek lisans eğitimi konusunda Nvidia’nın H100 yongalarıyla karşılaştırılabilir olduğunu ancak çıkarım tarafında daha iyi performans gösterdiğini, yani Meta’nın 70 milyar parametreli bir yüksek lisans LLM’si olan Llama 2 ile çalışırken H100’den 1,4 kat daha iyi performans gösterdiğini iddia etti.

AMD, MI300X’i Azure sanal makinelerine eklemek için Microsoft ile ortaklık kurdu. Su’nun konuşmasına konuk olan Microsoft CTO’su Kevin Scott da şunları duyurdu: Azure ND MI300X sanal makineleri – ilk olarak Kasım ayında ortaya çıktı – şimdi ön izlemede mevcut. Meta ayrıca MI300 işlemcilerini veri merkezlerinde konuşlandıracağını da duyurdu.

Su, AMD’nin veri merkezleri için MI300A APU’yu piyasaya sürdüğünü ve bunun toplam adreslenebilir pazarını 45 milyar dolara çıkarması beklendiğini söyledi. APU’lar genellikle daha hızlı işleme için CPU’ları ve GPU’ları birleştirir. AMD, MI300A’nın daha yüksek performanslı bilgi işlem, daha hızlı model eğitimi ve 30 kat enerji verimliliği artışı sunduğunu söyledi. AMD, H100 ile karşılaştırıldığında 1,6 kat daha fazla bellek kapasitesine sahip olduğunu söyledi. Aynı zamanda birleşik belleğe sahiptir, dolayısıyla artık farklı cihazlardan veri taşımaya gerek yoktur.

MI300A, Hewlett Packard Enterprise tarafından Lawrence Livermore Ulusal Laboratuvarı’nda inşa edilen El Capitan süper bilgisayarına güç verecek. El Capitan, en güçlü süper bilgisayarlardan biri olarak kabul ediliyor ve iki exafloptan fazla performans sunması bekleniyor.

MI300A APU “şu anda üretimde ve veri merkezlerine yerleştiriliyor.”

Fiyatlandırma bilgileri hemen mevcut değildi.

Su, Kod Konferansı sırasında MI300 yongalarıyla ilgili tanıtım yaptı ve AMD’nin yalnızca bulut sağlayıcılardan değil, işletmelerden ve startuplardan daha fazla yonga kullanıcısına erişme fırsatından heyecan duyduğunu söyledi.

AMD ayrıca, mobil cihazlara daha fazla yerel yapay zeka işlevi yerleştirebilen Ryzen işlemcilerine en son eklenen Ryzen 8040’ı da duyurdu. Şirket, 8040 serisinin önceki modellere göre 1,6 kat daha fazla yapay zeka işleme performansı sunduğunu ve sinir işleme birimlerini (NPU’lar) entegre ettiğini söyledi.

Şirket, Intel çipleri gibi rakip ürünlere göre video düzenlemenin yüzde 65 daha hızlı, oyun oynamanın da yüzde 77 daha hızlı olacağını iddia ederek Ryzen 8040’ın yapay zeka işlemeyle sınırlı olmayacağını söyledi.

AMD, Acer, Asus, Dell, HP, Lenovo ve Razer gibi üreticilerin Ryzen 8040 çiplerini entegre eden ürünleri 2024’ün ilk çeyreğinde piyasaya sürmesini bekliyor.

Su, Strix Point NPU’larının yeni neslinin 2024’te piyasaya sürüleceğini söyledi.

AMD ayrıca Ryzen Yapay Zeka Yazılım Platformunun artık geniş çapta kullanıma sunulduğunu duyurdu; bu platform, Ryzen destekli dizüstü bilgisayarlarda yapay zeka modelleri oluşturan geliştiricilerin modelleri NPU’ya aktararak CPU’nun güç tüketimini azaltabilmesine olanak tanıyacak. Kullanıcılar, konuşma tanıma modeli Whisper gibi temel modeller ve Llama 2 gibi LLM’ler için destek alacaklar.

AMD, Nvidia ve Intel gibi şirketler, AI modellerini güçlendirmek ve teknolojiye yönelik mevcut heyecandan yararlanmak için, temelde bir AI çip silahlanma yarışına kilitlendiler. Şu ana kadar Nvidia, OpenAI’nin GPT’si gibi modelleri eğitmek için kullanılan, çok beğenilen H100 GPU’larıyla en büyük pazar payını elde etti.



genel-2