OpenAI, yapay genel zekaya (AGI) doğru ilerleyen büyük dil modellerinin ilerlemesini çizelgelemek için dahili bir ölçek geliştirdi. Bloomberg.
AGI genellikle insan benzeri zekaya sahip AI anlamına gelir ve AI geliştiricileri için genel hedef olarak kabul edilir. Daha önceki referanslarda, OpenAI AGI’yi “ekonomik açıdan en değerli görevlerde insanları geride bırakan son derece otonom bir sistem” olarak tanımladı. Bu, mevcut AI yeteneklerinin çok ötesinde bir noktadır. Bu yeni ölçek, ilerlemeleri izlemek ve bu arayışta kıstaslar belirlemek için yapılandırılmış bir çerçeve sağlamayı amaçlamaktadır.
OpenAI tarafından tanıtılan ölçek, AGI yolundaki ilerlemeyi beş seviyeye veya kilometre taşına ayırır. ChatGPT ve rakip sohbet robotları Seviye 1’dir. OpenAI, temel sorunları çözme konusunda bir insanı doktora derecesiyle eşleştirebilen bir AI sistemi olacak olan Seviye 2’ye ulaşmanın eşiğinde olduğunu iddia etti. Bu, OpenAI CEO’su Sam Altman’ın “önemli bir sıçrama” olacağını söylediği GPT-5’e bir gönderme olabilir. Seviye 2’den sonra seviyeler giderek daha karmaşık hale gelir. Seviye 3, sizin orada olmadan sizin için görevleri halledebilen bir AI aracısı olurken, Seviye 4 AI aslında yeni fikirler ve kavramlar icat eder. Seviye 5’te, AI yalnızca bir bireyin değil, tüm kuruluşların görevlerini devralabilir.
Seviye atlamak
Seviye fikri OpenAI veya herhangi bir geliştirici için mantıklıdır. Aslında, kapsamlı bir çerçeve yalnızca OpenAI’ye dahili olarak yardımcı olmakla kalmaz, aynı zamanda diğer AI modellerini değerlendirmek için uygulanabilecek evrensel bir standart da belirleyebilir.
Yine de, AGI’ye ulaşmak hemen gerçekleşmeyecek. Altman ve OpenAI’daki diğerlerinin önceki yorumları beş yıl kadar kısa bir süreyi öneriyor, ancak zaman çizelgeleri uzmanlar arasında önemli ölçüde farklılık gösteriyor. Gerekli bilgi işlem gücü miktarı ve finansal ve teknolojik zorluklar önemlidir.
Bunlar AGI’nin tetiklediği etik ve güvenlik sorularının üstüne ekleniyor. Bu seviyedeki AI’nın toplum için ne anlama geleceği konusunda çok gerçek endişeler var. Ve OpenAI’nin son hamleleri kimseyi rahatlatmayabilir. Şirket, Mayıs ayında lideri ve OpenAI kurucu ortağı Ilya Sutskever’in ayrılmasının ardından güvenlik ekibini feshetti. Üst düzey araştırmacı Jan Leike de OpenAI’nin güvenlik kültürünün göz ardı edildiğine dair endişeleri dile getirerek istifa etti. Yine de, OpenAI yapılandırılmış bir çerçeve sunarak kendi modelleri ve rakiplerinin modelleri için somut ölçütler belirlemeyi ve belki de hepimizin gelecek olana hazırlanmamıza yardımcı olmayı amaçlıyor.