ChatGPT’nin yaratıcısı OpenAI, şirketin sınır yapay zeka modelleri olarak adlandırdığı modellerin nükleer savaş ve diğer tehditleri başlatmasını önlemek için bir ekip hazırlıyor.

“Şu anda mevcut en gelişmiş modellerde mevcut olan yetenekleri aşacak ileri düzey yapay zeka modellerinin, tüm insanlığa fayda sağlama potansiyeline sahip olduğuna inanıyoruz. Ancak aynı zamanda giderek daha ciddi riskler de yaratıyorlar” dedi. Blog yazısı.

Aleksander Madry’nin liderlik edeceği Hazırlık adlı ekip, sürekli gelişen bu yapay zeka modellerinin oluşturduğu riskleri en aza indirmeye çalışacak.

Bu “felaket” riskleri arasında kişiselleştirilmiş ikna, siber güvenlik, kimyasal, biyolojik, radyolojik ve nükleer tehditler ile otonom kopyalama ve adaptasyon yer alıyor.

Şirkete göre yeni ekibin yetenek değerlendirmesi, değerlendirmeler ve şirket içi süreçler arasında bağlantı kurması bekleniyor. kırmızı takım sınır modelleri için yakın gelecekte geliştireceği modellerden, Yapay Genel Zeka seviyesinde yeteneklere sahip olanlara kadar.

Hazırlık ekibi aynı zamanda risk bilgili bir geliştirme politikasının (RDP) geliştirilmesinden de sorumlu olacaktır.

Şirket, “RDP’miz, sıkı sınır modeli yetenek değerlendirmeleri ve izlemesi geliştirme, bir dizi koruyucu eylem oluşturma ve bu geliştirme süreci boyunca hesap verebilirlik ve gözetim için bir yönetişim yapısı oluşturma konusundaki yaklaşımımızı detaylandıracak” dedi.

RDP’nin ayrıca şirketin mevcut risk azaltma çalışmalarını tamamlaması ve genişletmesi amaçlandığını da ekledi.

OpenAI ayrıca yeni takım için “farklı teknik geçmişlerden olağanüstü yetenekleri” işe almak istiyor.

Ayrıca şirket, yıkıcı suiistimallerin önlenmesi için bir Yapay Zeka Hazırlık Yarışması başlattığını söyledi.

Şirket, “En iyi 10 başvuruya 25.000 $ API kredisi sunacağız, yeni fikirler ve girişler yayınlayacağız ve bu mücadelede en iyi yarışmacılar arasından Hazırlık için adaylar arayacağız” dedi.

Temmuz ayında OpenAI yeni bir platform açtı hizalama araştırma bölümüsüper zeki yapay zekanın (insanları geride bırakabilecek ve insan etiğiyle uyumsuz hale gelebilecek yapay zeka) ciddi zararlara neden olmasını engellemek için eğitim teknikleri geliştirmeye odaklandı.

Aynı sıralarda, şirket diğer önde gelen yapay zeka laboratuvarlarına katıldı Yapay zekaya emniyeti, güvenliği ve güveni teşvik etmek için gönüllü taahhütlerde bulunmak.

Bundan önce Mayıs ayında yüzlerce teknoloji endüstrisi lideri, akademisyen ve diğer tanınmış kişiler imza atmıştı. açık bir mektup yapay zekanın (AI) evriminin bir yok oluşa yol açabileceği konusunda uyarıda bulunuyor ve teknolojiyi kontrol etmenin küresel bir öncelik olması gerektiğini söylüyor.

Telif Hakkı © 2023 IDG Communications, Inc.



genel-13