İnsanüstü bir yapay zeka sisteminin varoluşsal tehlikesini kontrol etmekle görevli OpenAI’nin Superalignment ekibinin dağıtıldığı bildirildi. kablolu Cuma gününde. Haber, takımın kurucuları Ilya Sutskever ve Jan Leike’nin, aynı anda şirketten ayrılmak.

Wired, geleceğin insanüstü yapay zeka sistemlerinin kötüye gitmesini önlemek için ilk kez Temmuz 2023’te başlatılan OpenAI Superalignment ekibinin artık olmadığını bildirdi. Raporda grubun çalışmalarının OpenAI’nin diğer araştırma çalışmalarına dahil edileceği belirtiliyor. Wired’a göre, daha güçlü yapay zeka modelleriyle ilişkili risklere ilişkin araştırmalar artık OpenAI kurucu ortağı John Schulman tarafından yönetilecek. Sutskever ve Leike, OpenAI’nin yapay zeka risklerine odaklanan en iyi bilim adamlarından bazılarıydı.

Leike bir gönderi paylaştı X’te uzun iplik Cuma belli belirsiz OpenAI’den neden ayrıldığını açıklıyor. Bir süredir temel değerler konusunda OpenAI liderliğiyle mücadele ettiğini ancak bu hafta bir kırılma noktasına ulaştığını söylüyor. Leike, Superaligment ekibinin “rüzgara karşı yelken açtığını” ve önemli araştırmalar için yeterli hesaplamayı elde etmekte zorlandığını belirtti. OpenAI’nin güvenliğe, emniyete ve hizalamaya daha fazla odaklanması gerektiğini düşünüyor.

Superalignment ekibi bir OpenAI blog yazısında “Şu anda potansiyel olarak süper zeki bir yapay zekayı yönlendirmek veya kontrol etmek ve onun kötüye gitmesini önlemek için bir çözümümüz yok” dedi. Temmuz ayında piyasaya sürüldü. “Ancak insanlar bizden çok daha akıllı olan yapay zeka sistemlerini güvenilir bir şekilde denetleyemeyecek ve dolayısıyla mevcut hizalama tekniklerimiz süper zekaya ölçeklenemeyecek. Yeni bilimsel ve teknik atılımlara ihtiyacımız var.”

Aynı dikkatin bu teknik buluşlara da gösterilip gösterilmeyeceği artık belli değil. Şüphesiz OpenAI’de güvenliğe odaklanan başka ekipler de var. Superalignment’ın sorumluluklarını üstlendiği bildirilen Schulman’ın ekibi, şu anda eğitimden sonra AI modellerine ince ayar yapmaktan sorumlu. Ancak Superalignment, özellikle hileli bir yapay zekanın en ciddi sonuçlarına odaklandı. Gizmodo’nun dün belirttiği gibi, OpenAI’nin en açık sözlü yapay zeka güvenlik savunucularından bazıları istifa etti veya kovuldu son birkaç ayda.

Bu yılın başlarında grup, konuyla ilgili kayda değer bir araştırma makalesi yayınladı. Büyük yapay zeka modellerini daha küçük yapay zeka modelleriyle kontrol etme—süper akıllı yapay zeka sistemlerini kontrol etmeye yönelik ilk adım olarak kabul edildi. OpenAI’de bu projelerde sonraki adımları kimin atacağı belli değil.

OpenAI, Gizmodo’nun yorum talebine hemen yanıt vermedi.

Sam Altman’ın yapay zeka girişimi bu hafta başladı GPT-4 Omni’yi tanıtıyor, şirketin her zamankinden daha insani görünen ultra düşük gecikmeli yanıtlara sahip en son öncü modeli. Birçok OpenAI çalışanı, en yeni yapay zeka modelinin bilim kurgudan, özellikle de filmden bir şeye her zamankinden daha yakın olduğunu belirtti. O.



genel-7