OpenAI, GPT-4o Sistem KartıGirişimin son modelini piyasaya sürmeden önce uyguladığı güvenlik önlemlerini ve risk değerlendirmelerini özetleyen bir araştırma belgesi.

GPT-4o bu yılın Mayıs ayında kamuoyuna duyuruldu. İlk çıkışından önce OpenAI, modeldeki temel riskleri bulmak için (ki bu oldukça standart bir uygulamadır) bir sistemdeki zayıflıkları bulmaya çalışan kırmızı takım üyeleri veya güvenlik uzmanlarından oluşan harici bir grup kullandı. GPT-4o’nun birinin sesinin izinsiz klonlarını, erotik ve şiddet içerikli içeriği veya çoğaltılmış telif hakkıyla korunan ses parçalarını oluşturma olasılığı gibi riskleri incelediler. Şimdi sonuçlar yayınlanıyor.

OpenAI’nin kendi çerçevesine göre, araştırmacılar GPT-4o’nun “orta” riskli olduğunu buldular. Genel risk seviyesi, dört genel kategorinin en yüksek risk derecesinden alındı: siber güvenlik, biyolojik tehditlerikna ve model özerkliği. Bunların hepsi düşük riskli olarak kabul edildi, ancak araştırmacılar GPT-4o’dan bazı yazı örneklerinin okuyucuların fikirlerini etkilemede insan tarafından yazılmış metinlerden daha iyi olabileceğini buldular – ancak modelin örnekleri genel olarak daha ikna edici değildi.

OpenAI sözcüsü Lindsay McCallum Rémy şunları söyledi: Sınır Sistem kartının, harici test uzmanlarının yanı sıra dahili bir ekip tarafından oluşturulan hazırlık değerlendirmelerini içermesi OpenAI’nin web sitesinde listelenmiştir Her ikisi de yapay zeka sistemleri için değerlendirmeler oluşturan Model Değerlendirme ve Tehdit Araştırması (METR) ve Apollo Araştırması gibi.

Ayrıca şirket, ABD başkanlık seçimlerinin hemen öncesinde oldukça yetenekli bir çok modlu model yayınlıyor. Modelin yanlışlıkla yanlış bilgi yayması veya kötü niyetli aktörler tarafından ele geçirilmesi konusunda açık bir potansiyel risk var — OpenAI, şirketin kötüye kullanımı önlemek için gerçek dünya senaryolarını test ettiğini vurgulamayı umuyor olsa bile.

OpenAI’nin yalnızca modelin eğitim verileriyle değil (YouTube’da mı eğitildi?), aynı zamanda güvenlik testleriyle de daha şeffaf olması için çok sayıda çağrı yapıldı. OpenAI ve diğer birçok önde gelen AI laboratuvarının bulunduğu Kaliforniya’da, eyalet senatörü Scott Wiener, AI’leri zararlı şekillerde kullanılırsa şirketleri yasal olarak sorumlu tutacak kısıtlamalar da dahil olmak üzere büyük dil modellerini düzenleyen bir yasa tasarısını geçirmek için çalışıyor. Bu yasa tasarısı geçerse, OpenAI’nin sınır modelleri, modelleri kamu kullanımına sunmadan önce eyalet tarafından zorunlu tutulan risk değerlendirmelerine uymak zorunda kalacak. Ancak GPT-4o Sistem Kartı’ndan çıkarılacak en büyük ders, harici kırmızı takım üyeleri ve testçiler grubuna rağmen, bunun çoğunun kendini değerlendirmek için OpenAI’ye dayanmasıdır.



genel-2