OpenAI, ChatGPT sohbet robotu ve gelişmiş Büyük Dil Modelleri (LLM’ler) ile yapay zeka (AI) patlamasının ön saflarında yer aldı, ancak şirketin güvenlik sicili endişelere yol açtı. Yeni bir rapor, AI firmasının yeni modeller geliştirirken güvenlik ve emniyet protokollerini hızla geçtiğini ve ihmal ettiğini iddia etti. Raporda, ihmalin OpenAI’nin en son GPT-4 Omni (veya GPT-4o) modeli piyasaya sürülmeden önce gerçekleştiği vurgulandı.
Bazı isimsiz OpenAI çalışanları yakın zamanda AI sistemleri oluşturma konusunda denetim eksikliğine dair endişelerini dile getiren bir açık mektup imzalamıştı. Özellikle, AI firması yeni protokolleri değerlendirmek ve geliştirmek için seçilmiş yönetim kurulu üyeleri ve yöneticilerden oluşan yeni bir Güvenlik ve Emniyet Komitesi de kurmuştu.
OpenAI’nin Güvenlik Protokollerini İhmal Ettiği Söyleniyor
Ancak, ismi açıklanmayan üç OpenAI çalışanı söylenmiş Washington Post, ekibin, “Yapay Zeka sisteminin felaket boyutunda zararlara yol açmasını önlemek ve OpenAI liderleri tarafından belirlenen Mayıs ayındaki lansman tarihine yetişmek için” tasarlanan yeni bir test protokolünü hızla tamamlamak konusunda baskı hissettiğini yazdı.
Özellikle bu protokoller, yapay zeka modellerinin kimyasal, biyolojik, radyolojik ve nükleer (KBRN) silahların nasıl üretileceği veya siber saldırıların nasıl gerçekleştirileceği gibi zararlı bilgiler sağlamasını engellemek için mevcuttur.
Ayrıca raporda, şirketin en gelişmiş AI modeli olarak tanıttığı GPT-4o’nun lansmanından önce benzer bir olayın yaşandığı vurgulandı. Raporda, ismi açıklanmayan bir OpenAI çalışanının “Fırlatmanın güvenli olup olmadığını bilmeden lansman sonrası partiyi planladılar. Temelde süreçte başarısız olduk” dediği aktarıldı.
Bu, OpenAI çalışanlarının şirkette güvenlik ve emniyet protokollerine karşı belirgin bir ihmali dile getirmesinin ilk seferi değil. Geçtiğimiz ay, OpenAI ve Google DeepMind’ın birkaç eski ve mevcut çalışanı, büyük riskler oluşturabilen yeni AI sistemleri inşa etmede denetim eksikliğine ilişkin endişelerini dile getiren bir açık mektup imzaladı.
Mektupta hükümet müdahalesi ve düzenleyici mekanizmaların yanı sıra işverenler tarafından güçlü ihbarcı korumaları sağlanması çağrısı yapıldı. AI’nın üç vaftiz babasından ikisi, Geoffrey Hinton ve Yoshua Bengio, açık mektubu onayladı.
Mayıs ayında OpenAI, yapay zeka firmasının “OpenAI projeleri ve operasyonları için kritik güvenlik ve emniyet kararları” konusundaki süreçlerini ve güvencelerini değerlendirmek ve daha da geliştirmekle görevli yeni bir Güvenlik ve Emniyet Komitesi’nin kurulduğunu duyurdu. Şirket ayrıca yakın zamanda Model Spec adı verilen sorumlu ve etik bir yapay zeka modeli oluşturmaya yönelik yeni yönergeler paylaştı.