Son birkaç yılda yapay zekanın popülaritesi arttı ve bu artışın çoğunu chatbotlar ve görüntü oluşturucular sağladı. Bu araçlar, Büyük Dil Modelleri (LLM) adı verilen ve gördüğümüz sonuçları oluşturmak için yararlandıkları geniş veri kümeleri üzerinde kapsamlı bir şekilde eğitilmiştir. Ancak bu sonuçları hızlı bir şekilde elde etmek ciddi bir bilgi işlem gücüne bağlıdır. 100 milyondan fazla kullanıcı halihazırda güçlü NVIDIA donanımını yapay zeka modellerini çalıştırma görevine koyuyor. Bunun nedeni, NVIDIA’nın çıkarım olarak bilinen bu süreçte öne çıkan donanımları, AI yetenekleri için özel olarak tasarlanmış çekirdekler içeren GPU’larla sunması ve bu donanımı, doğruluktan ödün vermeden modeller üzerinde çalışmak için kısayollar bularak performansı optimize eden TensorRT yazılımıyla birleştirmesidir.

Bu yapay zeka destekli çekirdekler, Tensor Çekirdekleri olarak bilinir ve bunlar, çıkarımlarının aşırı hızlanması için yapay zeka uygulamalarını NVIDIA donanımı üzerinde çalışacak şekilde düzenleyen NVIDIA TensorRT yazılımının omurgasını oluşturur. Tipik bilgisayarınız 10 ila 45 AI teraops (TOPS) arasında çalışacak donanıma sahip olsa da, en yeni NVIDIA RTX GPU’lar 200 ila 1.300 TOPS arasında çalışabilir ve bu, yerel, cihaz içi işlemdir. Veri merkezi GPU’ları bu durumu bir adım daha yukarı taşıyabilir.



genel-21