OpenAI, büyük dil modellerinin yapay genel zekaya (AI) doğru ilerlemesini izlemek için dahili bir ölçek oluşturdu, sözcü söylenmiş Bloomberg.
Günümüzün ChatGPT gibi sohbet robotları Seviye 1’de. OpenAI, Seviye 2’ye yaklaştığını iddia ediyor. Bu, doktora derecesine sahip bir kişinin seviyesinde temel sorunları çözebilen bir sistem olarak tanımlanıyor. Seviye 3, bir kullanıcı adına eylemde bulunabilen AI ajanlarını ifade ediyor. Seviye 4, yeni yenilikler yaratabilen AI’yı içeriyor. AGI’ye ulaşmanın son adımı olan Seviye 5, insanlardan oluşan tüm organizasyonların işini yapabilen AI’dır. OpenAI daha önce AGI’yi “ekonomik açıdan en değerli görevlerde insanları geride bırakan son derece otonom bir sistem” olarak tanımlamıştı.
OpenAI’nin benzersiz yapısı, AGI elde etme misyonu etrafında merkezlenmiştir ve OpenAI’nin AGI’yi nasıl tanımladığı önemlidir. Şirket, “değer odaklı, güvenlik bilincine sahip bir proje, OpenAI’den önce AGI oluşturmaya yaklaşırsa” projeyle rekabet etmemeyi ve yardım etmek için her şeyi bırakmayı taahhüt ettiğini söyledi. OpenAI’nin bu ifadesi tüzük belirsizdir ve kar amacı güden kuruluşun (kar amacı gütmeyen kuruluş tarafından yönetilir) yargısına yer bırakır; ancak OpenAI’nin kendisini ve rakiplerini test edebileceği bir ölçek, AGI’ye ne zaman ulaşılacağını daha net terimlerle belirlemeye yardımcı olabilir.
Yine de AGI hala oldukça uzakta: AGI’ye ulaşmak için milyarlarca dolar değerinde bilgi işlem gücüne ihtiyaç duyulacak, eğer varsa. Uzmanların ve hatta OpenAI’nin zaman çizelgeleri büyük ölçüde farklılık gösteriyor. Ekim 2023’te OpenAI CEO’su Sam Altman söz konusu AGI’ye ulaşmamıza “beş yıl, eksi veya fazla” var.
Bu yeni notlandırma ölçeği, hala geliştirilme aşamasında olmasına rağmen, OpenAI’dan bir gün sonra tanıtıldı duyuruldu GPT-4o gibi gelişmiş AI modellerinin biyobilimsel araştırmalara nasıl güvenli bir şekilde yardımcı olabileceğini keşfetmeyi amaçlayan Los Alamos Ulusal Laboratuvarı ile iş birliği. Ulusal güvenlik biyolojisi portföyünden sorumlu ve OpenAI ortaklığını güvence altına almada etkili olan Los Alamos’taki bir program yöneticisi, Sınır amaç GPT-4o’nun yeteneklerini test etmek ve ABD hükümeti için bir dizi güvenlik ve diğer faktörler oluşturmaktır. Sonuç olarak, kamu veya özel modeller kendi modellerini değerlendirmek için bu faktörlere karşı test edilebilir.
Mayıs ayında OpenAI güvenlik ekibini feshetti grubun lideri, OpenAI kurucu ortağı Ilya Sutskever şirketten ayrıldıktan sonra. Önemli bir OpenAI araştırmacısı olan Jan Leike, şirkette “güvenlik kültürü ve süreçlerinin parlak ürünlere göre ikinci planda kaldığını” iddia ettiği bir gönderiden kısa bir süre sonra istifa etti. OpenAI bunun böyle olmadığını reddetse de, bazıları şirketin gerçekten AGI’ye ulaşması durumunda bunun ne anlama geldiği konusunda endişeli.
OpenAI, modelleri bu dahili seviyelere nasıl atadığına dair ayrıntıları sunmadı (ve reddetti) Sınır(‘nin yorum talebi). Ancak şirket liderleri, Perşembe günü düzenlenen bir toplantıda GPT-4 AI modelini kullanan bir araştırma projesini gösterdiler ve bu projenin insan benzeri muhakeme sergileyen bazı yeni becerileri sergilediğine inanıyorlar. Bloomberg.
Bu ölçek, yoruma açık bırakmak yerine, ilerlemenin kesin bir tanımını sağlamaya yardımcı olabilir. Örneğin, OpenAI CTO’su Mira Murati şöyle dedi: Haziran ayındaki bir röportajda laboratuvarlarındaki modellerin halkın sahip olduğundan çok daha iyi olmadığını söyledi. Bu arada, CEO Sam Altman geçen yılın sonlarında söylendi şirketin yakın zamanda “cehalet perdesini araladığını” ve modellerin çok daha zeki olduğunu söyledi.