OpenAI, ChatGPT’nin ses modlu en son sürümünün temel aldığı temel model olan GPT-4o’nun güvenlik özelliklerine ilişkin bir rapor yayınladı. Bu belgede modelle ilgili bilinen sorunlar anlatılmakta ve bunların nasıl çözüleceği açıklanmaktadır.
ChatGPT Plus aboneliğine sahip belirli bir kullanıcı grubunun kullanımına sunulan ChatGPT ses modunda bazı güvenlik açıkları bulunmaktadır. Bunlar, erotik, şiddet içeren veya diğer yasaklı yanıtlar içeren model yönlendirmeleri gibi standart risklerin yanı sıra ayrımcı veya önyargılı olabilecek “kanıtlanmamış çıkarımlar” ve “hassas konuların atfedilmesi” gibi standart riskleri içerir.
OpenAI, modeli bu kategorilerde işaretlenen çıktıları engelleyecek şekilde eğittiğini söylüyor.
Ancak raporda ayrıca hafifletici önlemlerin erotik inlemeler, kızgın çığlıklar ve silah sesleri gibi “sözsüz sesler veya diğer ses efektlerini” içermediği de belirtiliyor. Böylece, yanıtlarda belirli duyusal sözsüz sesleri içeren ipuçları hâlâ alınabilir.
Modelin ek yönleri arasında GPT-4o’yu birinin kimliğine bürünmeye veya kullanıcının sesini taklit etmeye zorlama yeteneği de yer alıyor. Bununla mücadele etmek için OpenAI yalnızca önceden yetkilendirilmiş oylara izin verir. GPT-4o aynı zamanda konuşmacının sesi dışındaki sesleri de tanımlayabiliyor ve bu da gizlilik sorunu yaratıyor. Ancak o bu istekleri reddetmek üzere eğitilmişti.
Ekip üyeleri ayrıca GPT-4o’nun ikna edici veya iddialı bir şekilde konuşmasının sağlanabileceğini, bunun dezenformasyon ve komplo teorileri söz konusu olduğunda kısa mesajlardan daha zararlı olabileceğini belirtti.
OpenAI ayrıca şirketi ve genel olarak üretken yapay zeka gelişimini engelleyen potansiyel telif hakkı sorunlarını da ele aldı. GPT-4o, telif hakkıyla korunan içeriğe yönelik istekleri reddedecek şekilde eğitilmiştir ve müzik içeren çıktıyı engellemek için ek filtrelere sahiptir. Bu nedenle ChatGPT’nin ses moduna “hiçbir koşulda şarkı söylememesi” talimatı verildi.
Uzun belgede açıklanan çok sayıda OpenAI azaltımı, Ses Modunun yayınlanmasından önce uygulandı. Bu nedenle rapor, GPT-4o’nun bazı yanlış davranışlarda bulunabilmesine rağmen “bunu yapmayacağını” belirtiyor.
Ancak OpenAI, bu puanların yalnızca modellerin temel bilgilerini ölçtüğünü ve gerçek dünyadaki iş akışlarındaki kullanışlılığını ölçmediğini iddia ediyor. GPT-4o kontrollü bir ortamda test edilmiştir, ancak daha geniş bir kitle erişim sağladığında, yaygın kullanımda çok farklı olduğu ortaya çıkabilir.