Sam Altman’ın OpenAI CEO’su olarak yeniden işe alınmasından birkaç gün sonra yeni bir yönetim kurulunun oluşturulacağı açıklandı. Yaklaşık üç hafta sonra 18 Aralık Pazartesi günü şirket, yönetim kurulunun güvenlik kararlarını tersine çevirmesine izin vermek de dahil olmak üzere en gelişmiş modellerinde güvenliği ele alan bir çerçeve hazırladı.
Bu, çokça rapor edilen Project Q* gibi, insanlık için potansiyel olarak zararlı görülebilecek herhangi bir modelin, kurulun veto yetkisiyle rafa kaldırılabileceği anlamına geliyor.
Şirket, “Yapay zeka güvenliği sorunlarını çözmek için yapay zekanın kendisini kullanarak ve sorun kategorileri için genel çözümler oluşturarak, yapay zeka güvenliğine ilk prensiplerden yaklaşmamız gerekiyor” dedi.
Microsoft destekli şirket, en son teknolojisini yalnızca siber güvenlik ve nükleer tehditler gibi belirli alanlarda güvenli görülmesi durumunda kullanacağını söyledi.
OpenAI’nin Güvenlik Sistemleri ekibi
Şirket aynı zamanda Güvenlik Sistemleri ekibi adı verilen ve güvenlik raporlarını inceleyip bunları şirketin yöneticilerine ve yönetim kuruluna gönderecek bir danışma grubu da oluşturuyor. Yöneticiler karar alırken, yönetim kurulu bu kararları tersine çevirebilir.
OpenAI, “Güvenlik Sistemleri ekibi, yapay zeka modellerinin güvenliğini, sağlamlığını ve güvenilirliğini ve bunların gerçek dünyada konuşlandırılmasını sağlamaya kendini adamıştır” diye ekledi.
Güvenlik Sistemleri dört alt ekipten oluşur
OpenAI, bu ana ekibin mühendislik, araştırma, politika, insan-yapay zeka işbirliği ve ürün yönetimi alanlarında uzmanlardan oluşan dört alt ekibe sahip olacağını söyledi.
Güvenlik Mühendisliği: Ekip, ürünlere sistem düzeyinde azaltma uygular, güvenli, gizliliğe duyarlı, merkezi bir güvenlik hizmeti altyapısı oluşturur ve geniş ölçekte araştırma ve uygulama için makine öğrenimi merkezli araçlar oluşturur.
Model Güvenlik Araştırması: Bu ekip, OpenAI’nin modellerimizde sağlam ve güvenli davranışı tam olarak uygulamaya yönelik yeteneklerini geliştirecek.
Güvenlik Muhakeme Araştırması: Bu ekip, varsayılan güvenli model davranışı ve azaltımların tasarımına rehberlik etmek için hem bilinen hem de bilinmeyen riskleri tespit edecek ve anlayacaktır. Temel modele daha iyi güvenlik ve etik muhakeme becerileri ekleyerek hedefe doğru çalışacaktır.
İnsan-Yapay Zeka Etkileşimi: Son olarak bu ekip, “model davranışını istenen insani değerlerle hizalamaya yönelik arayüz olan politikayla ilgilenecek ve politikayı modeller ve modeller için birlikte tasarlıyoruz ve böylece politikalar doğrudan güvenlik sistemlerimize takılabilir.”
(Ajans girdileri ile)
FacebookheyecanLinkedIn
makalenin sonu