Kullanım politikasında yapılan habersiz bir güncellemeyle OpenAI, teknolojilerinin askeri uygulamalarına kapıyı açtı. Politika daha önce ürünlerinin “askeri ve savaş” amacıyla kullanımını yasaklamış olsa da, bu dil artık ortadan kalktı ve OpenAI artık askeri kullanıma açık olduğunu inkar etmedi.
Kesmek değişikliği ilk fark eden10 Ocak’ta yayına girmiş gibi görünüyor.
Kullanımı yöneten ürünler gelişip değiştikçe, teknolojide politika metninde habersiz değişiklikler oldukça sık oluyor ve OpenAI’nin de bundan farklı olmadığı açık. Aslında şirketin, kullanıcı tarafından özelleştirilebilir GPT’lerinin, muğlak bir şekilde ifade edilen para kazanma politikasının yanı sıra halka açık hale getirileceğine dair yakın zamanda yaptığı duyuru, muhtemelen bazı değişiklikler gerektirdi.
Ancak askeriyeye hayır politikasındaki değişimin bu yeni ürünün bir sonucu olması pek mümkün değil. OpenAI’nin güncellemeyle ilgili bir açıklamasının yaptığı gibi “askeri ve savaş”ın hariç tutulmasının sadece “daha net” veya “daha okunabilir” olduğu da inandırıcı bir şekilde iddia edilemez. Bu, aynı politikanın yeniden ifade edilmesi değil, önemli ve sonuç niteliğindeki bir politika değişikliğidir.
Güncel kullanım politikasını okuyabilirsiniz Buradave eskisi Burada. İlgili bölümlerin vurgulandığı ekran görüntüleri:
Açıkçası her şey yeniden yazıldı, ancak daha okunabilir olup olmaması her şeyden çok zevk meselesi. Açıkça izin verilmeyen uygulamaların madde işaretli bir listesinin, bunların değiştirildiği daha genel yönergelerden daha okunaklı olduğunu düşünüyorum. Ancak OpenAI’deki politika yazarları açıkça aksini düşünüyor ve eğer bu onlara şimdiye kadar açıkça izin verilmeyen bir uygulamayı olumlu ya da olumsuz yorumlama konusunda daha fazla serbestlik sağlıyorsa, bu sadece hoş bir yan etkidir. Şirket, açıklamasında “Başkalarına zarar verme” ifadesinin “geniş ama kolayca kavranabilir ve birçok bağlamla alakalı olduğunu” belirtti. Aynı zamanda daha esnek.
OpenAI temsilcisi Niko Felix’in açıkladığı gibi, silah geliştirme ve kullanma konusunda hala genel bir yasak var; bunun başlangıçta ve ayrı olarak “askeri ve savaş” olarak listelendiğini görebilirsiniz. Sonuçta ordu silah yapmaktan daha fazlasını yapıyor ve silahlar ordudan başkaları tarafından yapılıyor.
OpenAI’nin yeni iş fırsatlarını incelediğini tahmin ettiğim yer tam da bu kategorilerin örtüşmediği noktadır. Savunma Bakanlığı’nın yaptığı her şey kesinlikle savaşla ilgili değildir; Her akademisyenin, mühendisin ya da politikacının bildiği gibi askeri kurum her türlü temel araştırma, yatırım, küçük işletme fonları ve altyapı desteğiyle derinden ilgilenmektedir.
OpenAI’nin GPT platformları, örneğin bir bölgenin su altyapısına ilişkin onlarca yıllık belgelemeyi özetlemek isteyen ordu mühendisleri için çok faydalı olabilir. Pek çok şirket için hükümet ve askeri parayla ilişkilerini nasıl tanımlayacakları ve yönlendirecekleri gerçek bir ikilemdir. Google’ın “Maven Projesi” meşhur bir adım fazla ileri gitti, ancak çok az kişi milyarlarca dolarlık JEDI bulut sözleşmesinden bu kadar rahatsız görünüyordu. Hava Kuvvetleri Araştırma laboratuvarı bursu alan bir akademik araştırmacının GPT-4’ü kullanması uygun olabilir, ancak AFRL içinde aynı proje üzerinde çalışan bir araştırmacı için uygun olmayabilir. Çizgiyi nerede çiziyorsunuz? Katı bir “askeriyeye hayır” politikasının bile birkaç uzaklaştırma sonrasında sona ermesi gerekiyor.
Bununla birlikte, OpenAI’nin yasaklı kullanımlarından “askeri ve savaş” kelimelerinin tamamen çıkarılması, şirketin en azından askeri müşterilere hizmet vermeye açık olduğunu gösteriyor. Şirketten durumun böyle olduğunu onaylamasını veya reddetmesini istedim ve onları, yeni politikanın dilinin, inkar dışındaki her şeyin onay olarak yorumlanacağını açıkça belirttiği konusunda uyardım.
Bu yazı itibariyle yanıt vermediler. Geri bildirim alırsam bu yazıyı güncelleyeceğim.
Güncelleme: OpenAI, The Intercept’e yapılan açıklamanın aynısını sundu ve askeri uygulamalara ve müşterilere açık olduğuna itiraz etmedi.