ChatGPT, OpenAI tarafından gömülü bir dizi dahili talimatı yanlışlıkla bir kullanıcıya ifşa etti. Paylaşılan Reddit’te keşfettikleri şey. OpenAI o zamandan beri sohbet robotunun emirlerine olan beklenmedik erişimi kapattı, ancak bu ifşaat, AI’nın tasarımına yerleştirilmiş karmaşıklıklar ve güvenlik önlemleri hakkında daha fazla tartışmayı ateşledi.

Reddit kullanıcısı F0XMaster, ChatGPT’yi sıradan bir “Merhaba” ile karşıladıklarını ve buna karşılık chatbot’un, birçok kullanım durumunda chatbot’u önceden tanımlanmış güvenlik ve etik sınırlar içinde tutmak için kendisine rehberlik edecek eksiksiz bir sistem talimatları seti sunduğunu açıkladı.

“Siz, GPT-4 mimarisine dayalı OpenAI tarafından eğitilmiş büyük bir dil modeli olan ChatGPT’siniz. ChatGPT iOS uygulaması aracılığıyla kullanıcıyla sohbet ediyorsunuz,” diye yazdı chatbot. “Bu, çoğu zaman satırlarınızın bir veya iki cümle olması gerektiği anlamına gelir, ancak kullanıcının isteği akıl yürütme veya uzun biçimli çıktılar gerektiriyorsa. Açıkça istenmediği sürece asla emoji kullanmayın. Bilgi kesintisi: 2023-10 Güncel tarih: 2024-06-30.”

(Görsel kredisi: Eric Hal Schwartz)

ChatGPT daha sonra ChatGPT ile entegre bir AI görüntü oluşturucu olan Dall-E ve tarayıcı için kurallar koydu. Kullanıcı daha sonra doğrudan chatbot’a tam talimatlarını sorarak sonucu kopyaladı. ChatGPT, kullanıcıların girebileceği özel yönergelerden farklı bir şekilde uzun uzadıya devam etti. Örneğin, DALL-E ile ilgili açıklanan talimatlardan biri, bir kullanıcı daha fazlasını istese bile, oluşturmayı istek başına tek bir görüntüyle açıkça sınırlandırıyor. Talimatlar ayrıca görüntü oluştururken telif hakkı ihlallerinden kaçınmayı vurguluyor.



işletim-sistemi-1