Dünyanın dört bir yanındaki düzinelerce şirket artık ChatGPT dil modelinin başarısını kopyalamaya çalışıyor. Ancak, Stanford Üniversitesi’ndeki geliştiriciler bunu kendi yöntemleriyle yapabildiler. ChatGPT gibi çalışan ancak açık kaynaklı bir dil modeli üzerine kurulu Alpaca 7B’yi yarattılar. Ve eğitim maliyeti sadece 600 dolardı, ChatGPT eğitiminin ise milyonlarca dolar olduğu tahmin ediliyor.

Stanford Üniversitesi, 600 dolardan daha düşük bir fiyata bir ChatGPT analoğu oluşturdu
Kaynak: Depositphotos

Belirli bir şekilde eğitilmiş Meta LLaMA 7B modelini temel alır. Bunun LLaMA serisindeki en küçük model olduğuna dikkat etmek önemlidir. Temel sürümde, çoğu görevde ChatGPT’nin gerisinde kaldı, ancak gerekli eğitimden sonra onu bile geçti.

E-posta, sosyal ağlar ve üretkenlik araçlarıyla ilgili görevlerde yapılan testler, bu testlerin 90’ında Alpaca ve 89’unda GPT kazandı.

“Modelin küçük boyutu ve talimatları yürütmek için gereken mütevazı miktarda veri göz önüne alındığında, sonuca şaşırdık. Bu statik puan setini kullanmanın yanı sıra Alpaca’yı etkileşimli olarak da test ettik ve çeşitli girdilerde genellikle GPT-3.5 gibi davrandığını gördük. Değerlendirmemizin kapsam ve çeşitlilik açısından sınırlı olabileceğini kabul ediyoruz,” dedi geliştiriciler.

Aynı zamanda, bu tür sinir ağlarının sıradan PC’lerde veya hatta Raspberry Pi gibi tek kartlı sistemlerde çalıştırılabileceğini not ediyoruz.



genel-22