ABD’li milletvekillerinin sorularını yanıtlayan OpenAI, güçlü yapay zeka araçlarının zarara yol açmamasını sağlamaya kararlı olduklarını ve çalışanların güvenlik uygulamalarıyla ilgili endişelerini dile getirmelerine olanak sağlayan yollar sunduğunu söyledi.
Şirket, Hawaii’den Demokrat Senatör Brian Schatz’ın da aralarında bulunduğu beş senatörün, OpenAI’nin İcra Kurulu Başkanı Sam Altman’a hitaben yazdıkları mektupta şirketin politikaları hakkında sorular sormasının ardından, yasa koyuculara güvenliğe olan bağlılığı konusunda güvence vermeyi amaçladı.
Baş Strateji Sorumlusu Jason Kwon Çarşamba günü milletvekillerine yazdığı mektupta, “Misyonumuz yapay zekanın tüm insanlığa fayda sağlamasını garantilemek ve sürecin her aşamasında sıkı güvenlik protokolleri uygulamaya adadık kendimizi” dedi.
Özellikle OpenAI, bilgi işlem kaynaklarının yüzde 20’sini güvenlikle ilgili araştırmalara ayırma sözünü birkaç yıl boyunca yerine getirmeye devam edeceğini söyledi. Şirket, mektubunda ayrıca, karşılıklı bir karalamama anlaşmasının belirli durumları haricinde, mevcut ve eski çalışanlar için karalamama anlaşmalarını uygulamayacağını taahhüt etti. OpenAI’nin şirketten ayrılan çalışanlara yönelik eski sınırlamaları alışılmadık derecede kısıtlayıcı olduğu için incelemeye alındı. OpenAI o zamandan beri politikalarını değiştirdiğini söyledi.
Altman daha sonra sosyal medyadaki stratejisini anlattı.
“Ekibimiz, yapay zeka değerlendirmelerinin bilimini ilerletmek için birlikte çalışabilmemiz amacıyla bir sonraki temel modelimize erken erişim sağlayacağımız bir anlaşma üzerinde ABD Yapay Zeka Güvenlik Enstitüsü ile çalışıyor” diye yazdı X.’te.
Openai’deki güvenlik hakkında birkaç kısa güncelleme:
Geçtiğimiz temmuz ayında da söylediğimiz gibi, şirket genelinde bilişim kaynaklarının en az %20’sini güvenlik çalışmalarına ayırmaya kararlıyız.
Ekibimiz, ABD Yapay Zeka Güvenlik Enstitüsü ile bir anlaşma üzerinde çalışıyor ve bu anlaşma kapsamında…
— Sam Altman (@sama) 1 Ağustos 2024
Kwon, mektubunda ayrıca yakın zamanda kurulan güvenlik ve emniyet komitesinin, şu anda OpenAI’nin süreçleri ve politikalarının gözden geçirildiğine de değindi.
Son aylarda OpenAI, güvenliğe olan bağlılığı ve çalışanların bu konuda konuşma yeteneği konusunda bir dizi tartışmayla karşı karşıya kaldı. Eski kurucu ortak ve baş bilim insanı Ilya Sutskever dahil olmak üzere güvenlikle ilgili ekiplerinin birkaç önemli üyesi, şirketin uzun vadeli güvenlik risklerini değerlendirmeye adanmış ekibinin bir diğer lideri olan Jan Leike ile birlikte istifa etti. Leike, şirketin güvenlikten çok ürün geliştirmeye öncelik verdiğine dair endişelerini kamuoyuyla paylaştı.
© 2024 Bloomberg LP
(Bu hikaye NDTV personeli tarafından düzenlenmemiştir ve sendikasyonlu bir yayından otomatik olarak oluşturulmuştur.)