ChatGPT’nin başarısı, OpenAI için ciddi bir gerileme olacaktır, bu son derece pahalıdır. Bir makine öğrenimi programı için metin oluşturmaya yönelik “çıkarım” süreci, kullanıcı sayısıyla çarpılan muazzam bir bilgi işlem gücü gerektirir. Bir arama motorunun üretici yapay zekayı kullanması iyi bir anlaşma olmaktan çok uzak olacaktır…henüz.

Yapay zekanın görünmeyen maliyetleri

Forrester analisti Rowan Curran’a göre, Ocak ayında ChatGPT’ye gönderilen isteklerin işlenmesi 40 milyon dolara kadar mal olmuş olabilir. CNBCTahmini ileten , yapay zeka destekli rol yapma oyunu AI Dungeon’ın arkasındaki Latitude girişiminin zirvede ayda yaklaşık 200.000 ABD doları harcamak zorunda kaldığını bildirdi. Kurucu ortağı Nick Walton, Amerikan medyasına “ İnsan çalışanlarımız ve yapay zeka çalışanlarımız olduğu konusunda şaka yaptık ve her biri için yaklaşık aynı parayı harcadık. “.

aynı kategoride

Çinli yapay zeka şirketleri ABD’nin ekonomik yaptırımlarını nasıl atlatıyor?

Bu meblağlar, bir arama motorunun çok sayıda kullanıcısı ile artacaktır. ile yapılan bir röportajda Reuters, Alphabet başkanı John Hennessy, büyük bir dil modelinin anahtar kelime araştırmasından 10 kat daha pahalıya mal olacağını tahmin etti. Morgan Stanley, ChatGPT benzeri bir yapay zekanın Google’ın sorgularının yarısını 50 kelimelik yanıtlarla işlemesi halinde, harcamalarının 2024 yılına kadar 6 milyar dolar artacağını tahmin ediyor.

John Hennessy’nin açıkladığı gibi, ” Bunlar, azaltmanız gereken çıkarım maliyetleridir. “. Bu, ChatGPT-3 için 175 milyar olmak üzere birkaç on milyar parametreye sahip yapay zekaları çalıştırmak için gereken bilgi işlem gücünün bedelidir. Bu güç esas olarak Nvidia tarafından sağlanan GPU’lar tarafından yürütülür. Aynı anda birden fazla hesaplama yapabilmeleri için AI sistemlerinin %95’i tarafından kullanılırlar. En yaygın olan A100 çipinin birim fiyatı 10.000 dolardır.

bir hesaplamaya göre CNBC, Meta’nın ortaya koyduğu bilgilere göre, LLaMa modelinin 65 milyar parametrede eğitimi, bir milyon saat boyunca 2.048 GPU gerektiriyordu. AWS’nin oranında, böyle bir kapasiteyi kiralamak 2,4 milyon dolardan fazlaya mal olacaktı. OpenAI için, modelini eğitme faturası 4 milyon dolara ulaşabilirdi.

Önümüzdeki yıllarda çözülmesi gereken bir sorun

Özellikle popüler olan bir modeli eğitmenin ve çalıştırmanın maliyeti, bir konsantrasyon sorunu oluşturabilir. Ekonominin endişe verici olduğu bir zamanda, yatırımcılar Teknoloji şirketlerinden daha hızlı yatırım getirisi beklerken, yalnızca en büyük yapılar OpenAI desteğiyle Meta, Google veya Microsoft gibi büyük modeller geliştirebilecek.

Ancak bu maliyet önümüzdeki yıllarda daralabilir. Çiplerin gücünün yalnızca sabit bir fiyatla arttığını öngören Moore yasasına, örneğin, özellikle Nvidia’nın CEO’su Jensen Huang tarafından başvurulur. Aynı zamanda, gelecekteki ve mevcut start-up’ların çıkarım fiyatlarını düşürmede uzmanlaşmaları için bir yoldur. Örneğin OpenAI çalışanları, çipleri daha verimli hale getiren bir kod sayesinde fiyatları düşürmeyi başarabilirdi. Son olarak, birçok şirket daha küçük, daha özel ve dolayısıyla daha ekonomik modeller kullanmaya karar verir.



genel-16