OpenAI “insanlığı tehdit etme” potansiyeli olan bir yapay zeka teknolojisi mi icat etti? Son zamanlardaki bazı manşetlere bakılırsa, böyle düşünme eğiliminde olabilirsiniz.

Reuters Ve Bilgi İlk olarak geçen hafta, birkaç OpenAI personelinin yapay zeka girişiminin yönetim kuruluna yazdıkları bir mektupta, “Q*” olarak bilinen bir iç araştırma projesinin “yeteneği” ve “potansiyel tehlikesini” işaretledikleri bildirildi. Rapora göre bu yapay zeka projesi, yalnızca ilkokul düzeyinde de olsa bazı matematik problemlerini çözebiliyordu ancak araştırmacıların görüşüne göre, bulunması zor bir teknik buluşa doğru gelişme şansı da vardı.

Artık OpenAI yönetim kurulunun böyle bir mektup alıp almadığına dair tartışmalar var. kaynak olmadığını öne sürüyor. Ancak Q*’un çerçevelenmesi bir yana, gerçekte Q* göründüğü kadar anıtsal veya tehditkar olmayabilir. Yeni bile olmayabilir.

Meta’nın baş yapay zeka bilimcisi Yann LeCun da dahil olmak üzere X’teki (eski adıyla Twitter) yapay zeka araştırmacıları, Q*’nun OpenAI’deki ve diğer yapay zeka araştırma laboratuvarlarındaki mevcut çalışmanın bir uzantısından daha fazlası olduğuna hemen şüpheyle yaklaştılar. Substack haber bülteni Coding with Intelligence’ın yazarı Rick Lamers, X ile ilgili bir gönderide, işaretlendi OpenAI kurucu ortağı John Schulman’ın yedi yıl önce verdiği bir MIT konuk konferansında “Q*” adı verilen bir matematiksel fonksiyonu tanımlamıştı.

Birçok araştırmacı, “Q*” adındaki “Q” harfinin, bir modelin belirli “doğru” eylemleri gerçekleştirerek ve bunun için ödüllendirilerek belirli bir görevi öğrenmesine ve geliştirmesine yardımcı olan bir yapay zeka tekniği olan “Q-öğrenmeyi” ifade ettiğine inanıyor. Araştırmacılar bu arada yıldız işaretinin, bir grafiği oluşturan düğümleri kontrol etmek ve bu düğümler arasındaki rotaları keşfetmek için kullanılan bir algoritma olan A*’ya referans olabileceğini söylüyor.

Her ikisi de bir süredir buralardaydı.

Google DeepMind, 2014 yılında Atari 2600 oyunlarını insan seviyesinde oynatabilecek bir yapay zeka algoritması oluşturmak için Q-öğrenmeyi uyguladı. A*’nın kökenleri 1968’de yayınlanan bir akademik makaleye dayanıyor. Ve UC Irvine’deki araştırmacılar birkaç yıl önce araştırıldı A*’yı Q-öğrenme ile geliştirmek – OpenAI’nin şu anda peşinde olduğu şey tam olarak bu olabilir.

Allen Yapay Zeka Enstitüsü’nde araştırma bilimcisi olan Nathan Lambert, TechCrunch’a Q*’nun “çoğunlukla yapay zeka” yaklaşımlarıyla bağlantılı olduğuna inandığını söyledi. [for] lise matematik problemlerini çalışmak” – insanlığı yok etmek değil.

Lambert, “OpenAI bu yılın başlarında, süreç ödül modelleri adı verilen bir teknikle dil modellerinin matematiksel akıl yürütmesini geliştiren bir çalışma bile paylaştı” dedi ve şöyle devam etti: “Ancak görülecek olan şey, matematik yeteneklerinin, daha iyi bir sonuç elde etmekten başka herhangi bir şeyi nasıl daha iyi yaptığıdır.” [OpenAI’s AI-powered chatbot] ChatGPT daha iyi bir kod asistanı.”

Georgia Tech’te bilgisayar bilimi profesörü olan Mark Riedl, benzer şekilde Reuters ve The Information’ın Q* hakkındaki raporlarını ve OpenAI etrafındaki daha geniş medya anlatısını ve onun yapay genel zekaya (yani herhangi bir görevi yerine getirebilen yapay zeka) yönelik arayışını eleştirdi. bir insan yapabilir). Bir kaynağa atıfta bulunan Reuters, Q*’nun yapay genel zekaya (AGI) doğru bir adım olabileceğini ima etti. Ancak Riedl dahil araştırmacılar buna karşı çıkıyor.

“Büyük dil modellerinin [like ChatGPT] Riedl, TechCrunch’a şöyle konuştu: “veya OpenAI’de geliştirilmekte olan herhangi bir teknoloji, AGI’ye veya felaket senaryolarından birine doğru gidiyor.” “OpenAI’nin kendisi en iyi ihtimalle ‘hızlı bir takipçi’ olmuştur; mevcut fikirleri alıp bunları büyütmenin yollarını bulmuştur. OpenAI üst düzey araştırmacıları işe alırken, onların yaptıklarının çoğu diğer kuruluşlardaki araştırmacılar tarafından yapılabilir. OpenAI araştırmacıları farklı bir organizasyonda olsaydı da yapılabilirdi.

Lambert gibi Riedl de Q*’nun Q-öğrenmeyi mi yoksa A*’yı mı gerektireceğini tahmin edemedi. Ancak bunlardan herhangi birini veya ikisinin bir kombinasyonunu içeriyorsa, bunun yapay zeka araştırmalarındaki mevcut eğilimlerle tutarlı olacağını söyledi.

Riedl, “Bunların tümü, akademi ve endüstrideki diğer araştırmacılar tarafından aktif olarak takip edilen fikirler ve son altı ay veya daha uzun süredir bu konular hakkında düzinelerce makale yayınlandı” diye ekledi. “OpenAI’deki araştırmacıların, AI’daki ilerlemeleri takip eden önemli sayıda araştırmacının sahip olmadığı fikirlere sahip olması pek olası değil.”

Bu, OpenAI’nin baş bilim adamı Ilya Sutskever’in dahil olduğu bildirilen Q*’un iğneyi ileriye doğru hareket ettiremeyeceği anlamına gelmiyor.

Lamers, Q*’nun bir makalede açıklanan tekniklerden bazılarını kullanması durumunda kağıt OpenAI araştırmacıları tarafından Mayıs ayında yayınlanan bu rapor, dil modellerinin yeteneklerini “önemli ölçüde” artırabilir. Makaleye dayanarak Lamers, OpenAI’nin dil modellerinin “akıl yürütme zincirlerini” kontrol etmenin bir yolunu keşfetmiş olabileceğini söylüyor; bu da onların modelleri sonuçlara ulaşmak için daha arzu edilen ve mantıksal olarak sağlam “yolları” takip etmeleri konusunda yönlendirmelerine olanak tanıyor.

Lamers, “Bu, modellerin kötü niyetli veya yanlış sonuçlara ulaşmak için ‘yabancıdan insana düşünceyi’ ve sahte kalıpları takip etme olasılığını azaltacaktır” dedi. “Bunun aslında uyum açısından OpenAI için bir kazanç olduğunu düşünüyorum… Çoğu yapay zeka araştırmacısı, bu büyük modelleri eğitmek için daha iyi yollara ihtiyacımız olduğu konusunda hemfikir, böylece bilgileri daha verimli bir şekilde tüketebilirler

Ancak Q*’dan ne çıkarsa çıksın, o ve çözdüğü nispeten basit matematik denklemleri insanlığın sonu anlamına gelmeyecek.





genel-24