Ne bilmek istiyorsun

  • TensorRT-LLM, 8 GB VRAM’den başlayan RTX GPU’lara sahip masaüstü ve dizüstü bilgisayarlar için OpenAI’nin Sohbet API desteğini ekliyor.
  • Kullanıcılar, veri kümelerini buluta yüklemeden LLM sorgularını daha hızlı ve yerel olarak işleyebilir.
  • NVIDIA bunu “Geri Almayla Artırılmış Üretim” (RAG) ile eşleştirerek daha fazla özel LLM kullanım senaryosuna olanak tanır.

Microsoft’un bugünkü Ignite konferansı sırasında NVIDIA, TensorRT-LLM için bir güncelleme duyurdu. Ekim ayında piyasaya sürüldü. Bugünkü ana duyurular, TensorRT-LLM özelliğinin artık LLM API’leri, özellikle de bu noktada en çok bilinen OpenAI Chat API’si için destek kazandığı ve ayrıca TensorRT-LLM ile performansı artırmak için çalıştıkları yönünde. GPU’larında jeton başına daha iyi performans.

Oldukça ilginç olan üçüncül bir duyuru da var. NVIDIA, TensorRT-LLM’ye Almayla Artırılmış Üretimi dahil edecek. Bu, bir LLM’nin çevrimiçi herhangi bir şeye güvenmek yerine bilgi tabanı için harici bir veri kaynağı kullanmasına olanak tanır; bu, yapay zeka için oldukça talep edilen bir özelliktir.

TensorRT-LLM nedir?

IGNITE 2023’TEN DAHA FAZLASINI OKUYUN



genel-20