OpenAI CEO’su Sam Altman, bu hafta X’te yaptığı paylaşımda, şirketin ABD Yapay Zeka Güvenlik Enstitüsü ile iş birliği yaptığını ve hükümet kurumuna güvenlik testleri için bir sonraki büyük yapay zeka modeline erken erişim sağlayacağını duyurdu.
Altman, planı önümüzdeki yıllarda ChatGPT ve diğer OpenAI ürünlerini önemli ölçüde etkileyebilecek daha büyük bir yapay zeka güvenlik önlemleri hamlesinin parçası olarak tanımladı. Ayrıca OpenAI’nin artık yapay zeka güvenliğine öncelik vermediğini söyleyen eleştirmenlere karşı bir halkla ilişkiler ve politika hamlesinin parçası olabilir.
Eleştirilerin en büyük nedenlerinden biri, OpenAI’nin dahili bir AI güvenlik ekibi oluşturup daha sonra büyük ölçüde dağıtmış olmasıdır. Dağılma, şirketin Jan Leike ve Ilya Sutskever gibi üst düzey yöneticilerinin istifa etmesine yol açtı; ikisi de şirketin erken güvenlik araştırma çabalarında etkiliydi. Diğer birçok mevcut ve eski çalışan, OpenAI’nin ürün geliştirme lehine güvenliği göz ardı etmeye karar verip vermediğini kamuoyunda merak ediyordu.
Altman’ın gönderisine doğrudan eklenen bir notta başka bir neden vurgulanıyor. Geçtiğimiz yıl bilgi işlem kaynaklarının %20’sini güvenlik araştırmalarına ayırma sözünden bahsediyor, ancak o zamanki bu tahsis özellikle liderleri şirketten ayrılan aynı komite içindi. Yine de hükümetle yapılan anlaşma tek gerçek değişiklik değil. Altman, OpenAI’nin ihbarcılığı engelleyen kısıtlayıcı karalama karşıtı maddeleri artık geçersiz kıldığını söyledi.
ABD AI Güvenlik Enstitüsü ile yapılan anlaşma, OpenAI’nin güveni yeniden kazanmak için yaptığı stratejik bir hamleyse, önemli bir hamledir. Enstitü, Ticaret Bakanlığı bünyesindeki Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) altında faaliyet göstermektedir. AI güvenliği ve emniyeti için standartlar ve yönergeler geliştirmek üzere çalışmaktadır ve halihazırda Microsoft, Google, Meta, Apple ve Nvidia gibi birçok büyük AI ve teknoloji firmasıyla çalışmaktadır.
OpenAI’nin yaklaşan AI modeline erken erişimi paylaşması, Enstitü’nün kamuya açıklanmadan önce güvenlik testleri ve değerlendirmeleri yapmasına olanak tanıyacaktır. Bu hareket, Başkan Joe Biden’ın geçen yılki AI yürütme emrinde özetlenen daha geniş hedeflerle uyumlu olacak şekilde, olası risklerin geliştirme sürecinin erken aşamalarında belirlenmesini ve azaltılmasını sağlamayı amaçlamaktadır.
OpenAI’nin son günlerdeki tek düzenleyici teşviki bu değil. Şirket, AI Safety Institute’a AI güvenliği için federal düzenlemeler oluşturma sorumluluğu verecek olan Senato’nun yeni Future of Innovation Act’ini onayladı. Yasa tasarısını zorlamak ile modellerini Enstitü’nün çalışmalarının merkezine koymak arasındaki bariz bağlantı, düzenlemeyi haksız yere etkileme girişimi veya AI güvenliğini artırmaya yönelik daha masum bir genel vuruş çabası olarak görülebilir.
Her ikisi de makul görünüyor ve OpenAI’nin İngiltere’nin AI güvenlik kuruluşuyla benzer bir ortaklığı var. Yine de, OpenAI harcanmış Bu yılın ilk yarısında lobi faaliyetleri geçen yılın tamamına göre üç kattan fazla arttı.
Güvenli, Karlı, Her İkisi de mi?
OpenAI’nin ABD AI Güvenlik Enstitüsü ile ortaklığı muhtemelen nihai modellerin ne kadar güvenli olduğuna ve onları daha güvenli hale getirmek için gerçek kısıtlamalar olup olmadığına göre değerlendirilecektir. Tüketiciler için asıl soru burada yatıyor. AI günlük yaşama giderek daha fazla entegre olurken, OpenAI ve rakipleri halkın kendilerine ve AI modellerine güvenmesini umarken bile güvenlik ve karlılık arasındaki gerilim artabilir.
Bir devlet kurumunun onay mührü kesinlikle güven cephesinde yardımcı olacaktır ve OpenAI diğer şirketlerin kendilerinden önce bunu almasını istemez. AI modellerinin piyasaya sürülmeden önce değerlendirilmesinde bağımsız bir güvenlik kuruluşunun dahil olması, kullandıkları araçların güvenli ve güvenilir olduğuna dair daha fazla güvence sağlayabilir. Veri gizliliği, önyargı ve AI’nın kasıtlı olarak kötüye kullanımı gibi AI sorunlarıyla ilgili artan endişeler, proaktif yaklaşımla hafifletilebilir. OpenAI’nin lobi faaliyetleri ve bu kuralları kendisi için elverişli hale getirmek için yaptığı diğer çabalar, dikkatli olmazlarsa bunu ve AI Güvenlik Enstitüsü’nün tüm amacını baltalayabilir.