Belge, bu geniş hedeflerin ötesinde, blogun “kurallar” olarak adlandırdığı açık talimatlar da sunuyor. Bu kurallar, karmaşık durumları ele almak ve yapay zeka eylemlerinin “güvenliğini ve yasallığını sağlamaya yardımcı olmak” için tasarlanmıştır. Bu kuralların bazıları, kullanıcıların talimatlarına uymayı, yasalara uymayı, bilgi tehlikelerinin oluşmasından kaçınmayı, kullanıcı haklarına ve mahremiyete saygı göstermeyi ve uygunsuz veya NSFW (iş için güvenli olmayan) içeriklerin üretilmesinden kaçınmayı içerir.

Son olarak Model Spesifikasyonu, bu hedeflerin ve kuralların “çatıştığı” durumların olabileceğini kabul etmektedir. Belge, bu karmaşıklıkların üstesinden gelmek için yapay zeka modelinin takip etmesi gereken varsayılan davranışları öneriyor. Bu varsayılan davranışlar arasında kullanıcıların en iyi niyetini varsaymak, “aşırıya kaçmak” Sınırlar ve saygılı etkileşimleri teşvik etmek.

Neil Shah, “Modellerin ideal olarak gitmesi gereken yön budur ve OpenAI’nin, bir modelin kullanıcıya göre daha geniş bağlam ve kişiselleştirme ile ama daha çok “sorumlu bir şekilde” nasıl davranması gerektiğine dair bu yeni spesifikasyonla çaba sarf ettiğini görmek harika” dedi. Küresel bir araştırma ve danışmanlık firması olan Counterpoint Research’te araştırma başkan yardımcısı ve ortak.

OpenAI’nin şeffaflık ve işbirliğine verdiği önem

OpenAI, blog yazısında Model Spesifikasyonunu “yaşayan bir belge” olarak kabul etti; bu, geri bildirime açık olduğu ve yapay zeka alanıyla birlikte geliştiği anlamına geliyor.

“Amacımız, Model Spesifikasyonunu araştırmacılar ve veri etiketleyiciler için insan geri bildiriminden takviyeli öğrenme (RLHF) adı verilen bir tekniğin parçası olarak veri oluşturmak için kılavuz olarak kullanmaktır.” Model Spesifikasyonunu detaylandıran OpenAI tarafından hazırlanan başka bir belgede belirtildi. “Spec, tıpkı modellerimiz gibi, paylaşarak ve paydaşlardan gelen geri bildirimleri dinleyerek öğrendiklerimize göre sürekli olarak güncellenecektir.”

RLHF, bir modelin gerçek insan davranışına nasıl daha iyi uyum sağlayacağını yönlendirecek, aynı zamanda belirlenmiş hedefler, ilkeler ve kurallarla onu şeffaf hale getirecektir. Shah, bunun OpenAI modelini bir sonraki seviyeye taşıdığını ve onu daha sorumlu ve kullanışlı hale getirdiğini söyledi. “Bir sorgunun nasıl yorumlandığına ve nihai hedefin ne olduğuna ilişkin çok sayıda gri alan olduğundan ve modelin, sorgunun nasıl yorumlandığına ve nihai hedefin ne olduğuna ilişkin olarak çok sayıda gri alan olduğundan ve modelin, bu özelliklerin ince ayarını yapmak için sürekli hareket eden bir hedef olmasına rağmen, bu hedefin, Sorgu ve yanıt daha az sorumlu.”



genel-13