OpenAI başlattı Süper hizalama ekibi neredeyse bir yıl önce, nihai hedefi varsayımsal süper akıllı yapay zeka sistemlerini kontrol etmek ve onların insanlara karşı dönmesini önlemekti. Doğal olarak pek çok kişi endişeliydi; neden böyle bir takımın var olması gerekiyordu? Şimdi daha endişe verici bir şey oldu: Takımın liderleri, Ilya Sutskever ve Jan LeikeOpenAI’den çıkın.

Superalignment’ın liderliğinin istifası, bir kısmı Sutskever ve Leike’nin güvenlik odaklı ekibinden gelen, şirketten bir dizi dikkate değer ayrılmanın sonuncusu oldu. Kasım 2023’te Sutskever ve OpenAI’nin yönetim kurulu, CEO Sam Altman’ı görevden almak için başarısız bir girişimde bulundu. Altı ay sonra, yapay zeka güvenliği konusunda açık sözlü olan veya kilit güvenlik ekiplerinde çalışan birkaç OpenAI personeli şirketten ayrıldı.

Sutskever darbe için özür diledi (kötüyüm dostum!) ve 738 OpenAI çalışanıyla (toplam 770 kişiden) birlikte Altman ve Başkan Greg Brockman’ın yeniden göreve getirilmesini isteyen bir mektup imzaladı. Ancak bir rivayete göre The New York Times’ın 702 imzalı mektubunun kopyası (Gizmodo’nun bulabileceği en eksiksiz halka açık kopya), şu anda istifa eden birkaç personel ya OpenAI’nin liderliğine destek gösterisini imzalamadı ya da bunu yapmakta gecikti.

O zamandan beri istifa eden Superalignment ekibi üyeleri Jan Leike, Leopold Aschenbrenner ve William Saunders’ın isimleri, Altman ve Brockman’a destek veren 700’den fazla OpenAI çalışanının yanında görünmüyor. Zamanlar‘ kopyala. Dünyaca ünlü AI araştırmacısı Andrej Karpathy ve eski OpenAI çalışanları Daniel Kokotajlo ve Cullen O’Keefe de mektubun bu ilk versiyonunda yer almıyorlar ve o zamandan beri OpenAI’den ayrıldılar. Bu kişiler mektubun sonraki versiyonunu destek sinyali vermek için imzalamış olabilirler, ancak eğer öyleyse, bunu yapan son kişiler gibi görünüyorlar.

Gizmodo, bundan sonra Superalignment ekibine kimin liderlik edeceği konusunda yorum yapmak için OpenAI’ye ulaştı ancak hemen bir yanıt alamadık.

Daha genel anlamda OpenAI’de güvenlik her zaman bölücü bir konu olmuştur. 2021’de Dario ve Daniela Amodei’nin nedeni buydu kendi yapay zeka şirketini kurmak, Anthropic, diğer dokuz eski OpenAI çalışanı ile birlikte. Güvenlik kaygılarının aynı zamanda OpenAI’nin kâr amacı gütmeyen yönetim kurulu üyelerinin Altman ve Brockman’ı devirmesine yol açtığı da bildirildi. Bu yönetim kurulu üyelerinin yerini bazı kötü şöhretli Silikon Vadisi girişimcileri aldı.

OpenAI’de hala şirkette güvenlik konusunda çalışan çok sayıda insan var. Sonuçta girişimin belirtilen misyonu, insanlığa fayda sağlayan güvenli bir şekilde YGZ yaratmaktır! Bununla birlikte, Altman’ın devrilmesinden bu yana OpenAI’den ayrılan önemli AI güvenlik savunucularının Gizmodo’nun devam eden listesi burada. Masaüstünde tıklayın veya mobilde kaydırmaya devam edin.



genel-7