OpenAI, Güvenlik ve Emniyet Komitesini, güvenlik endişeleri nedeniyle model lansmanlarını geciktirme yetkisine sahip bağımsız bir “Yönetim Kurulu denetim komitesine” dönüştürüyor. OpenAI blog yazısına göreKomite, OpenAI’nin “güvenlik ve emniyetle ilgili süreçleri ve önlemleri” hakkında yakın zamanda yapılan 90 günlük incelemenin ardından bağımsız bir kurul oluşturulması yönünde öneride bulundu.

Zico Kolter başkanlığındaki ve Adam D’Angelo, Paul Nakasone ve Nicole Seligman’ın yer aldığı komite, “şirket liderliği tarafından büyük model sürümleri için güvenlik değerlendirmeleri konusunda bilgilendirilecek ve tüm yönetim kuruluyla birlikte, güvenlik endişeleri giderilene kadar bir sürümü geciktirme yetkisi de dahil olmak üzere model lansmanları üzerinde denetim uygulayacak” diyor OpenAI. OpenAI’nin tüm yönetim kurulu ayrıca “güvenlik ve emniyet konuları” hakkında “periyodik brifingler” alacak.

OpenAI’nin güvenlik komitesinin üyeleri aynı zamanda şirketin daha geniş yönetim kurulunun üyeleridir, bu nedenle komitenin tam olarak ne kadar bağımsız olduğu veya bu bağımsızlığın nasıl yapılandırıldığı belirsizdir. OpenAI’den yorum istedik.

Bağımsız bir güvenlik kurulu kurarak, OpenAI’nin Meta’nın içerik politikası kararlarından bazılarını inceleyen ve Meta’nın uyması gereken kararlar alabilen Meta Denetim Kurulu’na benzer bir yaklaşım benimsediği anlaşılıyor. Denetim Kurulu üyeleri açık Meta’nın yönetim kurulu.

OpenAI’nin Güvenlik ve Emniyet Komitesi tarafından yapılan inceleme, “AI sektörünün güvenliğini ilerletmek için sektör iş birliği ve bilgi paylaşımı için ek fırsatlar” yaratılmasına da yardımcı oldu. Şirket ayrıca “güvenlik çalışmalarımızı paylaşmanın ve açıklamanın daha fazla yolunu” ve “sistemlerimizin bağımsız olarak test edilmesi için daha fazla fırsat” arayacağını söylüyor.



genel-2