Sam Altman artık OpenAI yönetim kurulu üyeleri tarafından, özellikle de yeni AI sürümlerinin güvenlik yönüyle ilgili durumlarda reddedilebilir. Altman ve liderlik ekibi yeni bir yapay zeka sisteminin yayınlanıp yayınlanmayacağına karar verebilir ancak yönetim kurulu bu kararı geçersiz kılma yetkisine sahiptir.

OpenAI, şirketin yönetimi bunu güvenli bulsa bile, yönetim kurulunun bir AI modelinin yayınlanmasını engelleme yetkisine sahip olduğunu belirten yönergeleri açıkladı. Bu hamle, OpenAI’nin yöneticilerine gelişmiş yapay zeka teknolojisine yönelik korumaları geliştirme konusunda yetki verme konusundaki kararlılığını yansıtıyor.

Pazartesi günü yayınlanan yönergeler, OpenAI’nin en güçlü AI sistemleriyle ilişkili aşırı riskleri nasıl ele almayı planladığını ele alıyor.

CEO Sam Altman’ın yönetim kurulu tarafından kısa süreliğine görevden alınmasıyla sonuçlanan son liderlik çalkantısının ardından OpenAI, yöneticiler ile şirketin yönetim ekibi arasındaki güç dengesini vurguluyor.

İlgili Makaleler

Geri sarma

2023’ü geri sar: Sohbet robotlarından deepfake’lere kadar AI, belirleyici teknolojiydi. 2024 yılında nasıl şekillenecek?

Geri sarma

‘Psikolojik açıdan taciz edici, zehirli’: Yeni rapor OpenAI CEO’su Sam Altman’ı korkunç bir patron olarak çağırıyor

Kılavuzlar, yapay zeka sistemlerini potansiyel siber güvenlik sorunları ve kimyasal, nükleer ve biyolojik faktörlerle ilgili tehditler dahil olmak üzere dört kategoride değerlendiren OpenAI’nin “hazırlık” ekibinin sorumluluklarını özetlemektedir.

Şirket, yüz milyarlarca dolarlık ekonomik hasar veya birçok kişinin ciddi şekilde zarar görmesi veya ölmesi potansiyeli taşıyan riskler olarak tanımlanan “yıkıcı” risklere karşı özellikle ihtiyatlı davranıyor.

Massachusetts Teknoloji Enstitüsü’nden Aleksander Madry liderliğindeki hazırlık ekibi, yeni bir dahili güvenlik danışma grubuna aylık raporlar sunacak.

Bu danışma grubu, ekibin bulgularını analiz edecek ve Altman ile yönetim kuruluna önerilerde bulunacak.

Altman ve liderlik ekibi bu raporlara dayanarak yeni bir yapay zeka sisteminin yayınlanıp yayınlanmayacağına karar verebilirken, yönetim kurulunun yönergelere göre bu kararı geçersiz kılma yetkisi var.

OpenAI, Ekim ayında şirketteki yapay zeka güvenliğini denetleyen üç gruptan birini oluşturan “hazırlık” ekibini kurdu. Diğer gruplar arasında GPT-4 gibi mevcut ürünlere odaklanan “güvenlik sistemleri” ve olağanüstü güce sahip gelecekteki potansiyel yapay zeka sistemlerine odaklanan “süper hizalama” yer alıyor.

Madry’nin ekibi, OpenAI’nin en gelişmiş, yayınlanmamış yapay zeka modellerini sürekli olarak değerlendirecek ve bunları algılanan çeşitli risk türleri açısından “düşük”, “orta”, “yüksek” veya “kritik” olarak sınıflandıracak.

Yönergelere göre OpenAI’nin yayınlayacağı modeller yalnızca “orta” veya “düşük” olarak derecelendirilen modellerdir.

Madry, diğer şirketlerin de kendi yapay zeka modelleriyle ilişkili potansiyel riskleri değerlendirmek için OpenAI’nin yönergelerini benimseyeceğini umuyor. Yönergeler, OpenAI’nin yapay zeka teknolojisini değerlendirirken daha önce takip ettiği süreçleri, son birkaç ay içinde kuruluş içinden toplanan girdi ve geri bildirimlerle resmileştiriyor.

(Kurumlardan gelen girdilerle)



genel-5