Gemini yapay zeka (AI) modelleri ailesinin en son üyesi olan Gemini 1.5 Flash-8B, artık genel olarak üretimde kullanıma sunuldu. Perşembe günü Google, modelin genel kullanılabilirliğini duyurdu ve bunun Google I/O’da tanıtılan Gemini 1.5 Flash’ın daha küçük ve daha hızlı bir versiyonu olduğunu vurguladı. Hızlı olması nedeniyle düşük gecikmeli çıkarımlara ve daha verimli çıktı üretimine sahiptir. Daha da önemlisi teknoloji devi, Flash-8B AI modelinin “Tüm Gemini modelleri arasında zeka başına en düşük maliyetli” olduğunu belirtti.

Gemini 1.5 Flash-8B Artık Genel Kullanıma Sunuldu

Bir geliştiricide blog yazısıMountain View merkezli teknoloji devi, yeni yapay zeka modelini detaylandırdı. Gemini 1.5 Flash-8B, daha hızlı işleme ve daha verimli çıktı oluşturmaya odaklanan Gemini 1.5 Flash AI modelinden damıtılmıştır. Şirket şimdi Google DeepMind’ın yapay zeka modelinin bu daha da küçük ve daha hızlı versiyonunu son birkaç ay içinde geliştirdiğini iddia ediyor.

Teknoloji devi, daha küçük bir model olmasına rağmen, birden fazla kıyaslamada 1.5 Flash modelinin performansına “neredeyse eşleştiğini” iddia ediyor. Bunlardan bazıları sohbet, transkripsiyon ve uzun bağlam dili çevirisini içerir.

Yapay zeka modelinin en büyük faydalarından biri fiyat etkinliğidir. Google, Gemini 1.5 Flash-8B’nin Gemini ailesindeki en düşük token fiyatını sunacağını söyledi. Geliştiricilerin, önbelleğe alınan istemlerde bir milyon çıkış tokenı başına 0,15 ABD Doları (yaklaşık 12,5 Rupi), bir milyon giriş tokenı başına 0,0375 ABD Doları (yaklaşık 3 Rupi) ve bir milyon jeton başına 0,01 ABD Doları (yaklaşık 0,8 Rupi) ödemesi gerekecek.

Ayrıca Google, 1.5 Flash-8B AI modelinin hız sınırlarını iki katına çıkarıyor. Artık geliştiriciler bu modeli kullanırken dakikada 4.000’e kadar istek (RPM) gönderebiliyor. Kararını açıklayan teknoloji devi, modelin basit, yüksek hacimli görevlere uygun olduğunu belirtti. Modeli denemek isteyen geliştiriciler bunu Google AI Studio ve Gemini API üzerinden ücretsiz olarak gerçekleştirebiliyor.



genel-8