OpenAI’nin önde gelen güvenlik araştırmacılarından biri olan Lilian Weng, Cuma günü girişimden ayrıldığını duyurdu. Weng, Ağustos ayından bu yana araştırma ve güvenlikten sorumlu başkan yardımcısı olarak görev yapıyordu ve ondan önce de OpenAI’nin güvenlik sistemleri ekibinin başkanıydı.

bir X’te yayınlaWeng, “OpenAI’de geçirdiğim 7 yılın ardından, sıfırlamaya ve yeni bir şeyi keşfetmeye hazır olduğumu hissediyorum” dedi. Weng, son gününün 15 Kasım olacağını söyledi ancak bundan sonra nereye gideceğini belirtmedi.

Weng, gönderisinde “OpenAI’den ayrılmak için son derece zor bir karar verdim” dedi. “Başardıklarımıza baktığımızda, Güvenlik Sistemleri ekibindeki herkesle gurur duyuyorum ve ekibin gelişmeye devam edeceğine son derece güveniyorum.”

Weng’in ayrılışı, geçen yıl şirketten ayrılan yapay zeka güvenlik araştırmacıları, politika araştırmacıları ve diğer yöneticilerin sonuncusunu işaret ediyor ve birçoğu OpenAI’yi yapay zeka güvenliğinden ziyade ticari ürünlere öncelik vermekle suçladı. Weng, süper akıllı yapay zeka sistemlerini yönlendirmek için yöntemler geliştirmeye çalışan OpenAI’nin şu anda dağılmış olan Superalignment ekibinin liderleri olan Ilya Sutskever ve Jan Leike’ye katılıyor; bu ekip de bu yıl başka bir yerde yapay zeka güvenliği üzerinde çalışmak üzere girişimden ayrıldı.

Weng, OpenAI’ye ilk kez 2018’de katıldığını söyledi. LinkedInstartup’ın robot ekibinde çalışıyor ve sonunda Rubik küpünü çözebilecek bir robot eli geliştiriyor; bu görevin tamamlanması iki yıl sürdü.

OpenAI GPT paradigmasına daha fazla odaklanmaya başladıkça Weng de aynısını yaptı. Araştırmacı, 2021 yılında girişimin uygulamalı yapay zeka araştırma ekibinin oluşturulmasına yardımcı olmak için geçiş yaptı. GPT-4’ün piyasaya sürülmesinin ardından Weng, 2023 yılında girişim için güvenlik sistemleri oluşturmak üzere özel bir ekip oluşturmakla görevlendirildi. Bugün, OpenAI’nin güvenlik sistemleri biriminde birden fazla donanım bulunuyor. Weng’in gönderisine göre 80 bilim insanı, araştırmacı ve politika uzmanı.

Bu, yapay zeka güvenliğiyle ilgili çok sayıda insan demek, ancak çoğu, giderek daha güçlü yapay zeka sistemleri oluşturmaya çalışırken OpenAI’nin güvenliğe odaklanmasıyla ilgili endişelerini dile getirdi. Uzun süredir politika araştırmacısı olan Miles Brundage, Ekim ayında girişimden ayrıldı ve OpenAI’nin kendisinin tavsiye ettiği YGZ hazırlık ekibini dağıtacağını duyurdu. Aynı gün, New York Times eski bir OpenAI araştırmacısının profilini çıkardı: Suchir BalajiOpenAI’den ayrıldığını çünkü girişimin teknolojisinin topluma faydadan çok zarar getireceğini düşündüğünü söyledi.

OpenAI, TechCrunch’a yöneticilerin ve güvenlik araştırmacılarının Weng’in yerini alacak bir geçiş üzerinde çalıştığını söyledi.

Bir OpenAI sözcüsü e-postayla gönderdiği açıklamada, “Lilian’ın çığır açan güvenlik araştırmalarına ve sıkı teknik koruma önlemleri oluşturmaya yaptığı katkıları derinden takdir ediyoruz” dedi. “Güvenlik Sistemleri ekibinin, dünya çapında yüz milyonlarca insana hizmet vererek sistemlerimizin emniyetli ve güvenilir olmasını sağlamada önemli bir rol oynamaya devam edeceğinden eminiz.”

Son aylarda OpenAI’den ayrılan diğer yöneticiler arasında CTO Mira Murati, baş araştırma sorumlusu Bob McGrew ve araştırma başkan yardımcısı Barret Zoph yer alıyor. Ağustos ayında önde gelen araştırmacı Andrej Karpathy ve kurucu ortak John Schulman da girişimden ayrılacaklarını duyurdular. Leike ve Schulman da dahil olmak üzere bu insanlardan bazıları OpenAI’nin rakibi Anthropic’e katılmak için ayrılırken, diğerleri kendi girişimlerini kurmaya devam etti.



genel-24