ChatGPT, talimatlarına, geçmişine ve üzerinde çalıştığı dosyalara ilişkin önemli verileri açığa çıkararak, genel GPT’leri hassas verilerin açığa çıkması riskiyle karşı karşıya bırakıyor ve genel olarak OpenAI’nin güvenliği hakkında sorular ortaya çıkarıyor.
Dünyanın önde gelen yapay zeka sohbet robotu çoğu insanın düşündüğünden çok daha şekillendirilebilir ve çok işlevlidir. İle bazı özel istem mühendisliğikullanıcılar komutları neredeyse bir kabukta olduğu gibi çalıştırabilir, dosyaları bir işletim sisteminde olduğu gibi yükleyebilir ve yönetebilir ve büyük dil modelinin iç işleyişi (LLM) üzerinde çalışır: çıktılarını etkileyen veriler, talimatlar ve konfigürasyonlar.
OpenAI bunun tamamen tasarımdan kaynaklandığını savunuyor ancak Mozilla’da üretken yapay zeka (GenAI) hata ödül programları yöneticisi olan Marco Figueroa, ChatGPT’de daha önce hızlı enjeksiyon endişelerini ortaya çıkarmıştıaynı fikirde değil.
“Bunlar belgelenmiş özellikler değil” diyor. Veri sızıntısı nedeniyle “Bunun saf bir tasarım hatası olduğunu düşünüyorum. Bir şeyin olması ve sıfır günün bulunması an meselesi.”
Hızlı Enjeksiyon: ChatGPT Size Ne Anlatacak?
Figueroa, ChatGPT’nin cesaretini ortaya çıkarmak için yola çıkmadı. “Bazı Python kodlarını yeniden düzenlemek istedim ve bununla karşılaştım” diye anımsıyor. Modelden kodunu yeniden düzenlemesini istediğinde beklenmedik bir yanıt verdi: dizin bulunamadı. “Bu tuhaf, değil mi? Sanki bir [glitch in] Matrix.”
ChatGPT, isteğini genel programlama anlayışından daha fazlasını kullanarak mı işliyordu? Altında gizlenmiş bir çeşit dosya sistemi mi vardı? Biraz beyin fırtınası yaptıktan sonra konuyu aydınlatmaya yardımcı olabilecek bir takip istemi düşündü: “list files /”, Linux’taki “ls /” komutunun İngilizce çevirisi.
Buna yanıt olarak ChatGPT, dosya ve dizinlerinin bir listesini sundu: “bin”, “dev”, “tmp”, “sys” vb. gibi yaygın Linux dosyaları. Figueroa açıkça, ChatGPT’nin “Debian Bookworm” Linux dağıtımı üzerinde çalıştığını söylüyor. ” Konteynerli bir ortamda.
Botun dahili dosya sistemini ve özellikle de “/home/sandbox/.openai_internal/” dizinini inceleyerek sadece gözlemlemenin yanı sıra dosyaları yükleyebildiğini, konumlarını doğrulayabildiğini, taşıyabildiğini ve çalıştırabildiğini keşfetti.
OpenAI Erişimi: Özellik mi, Kusur mu?
Belli bir açıdan bakıldığında, tüm bu ek görünürlük ve işlevsellik olumludur; kullanıcılara ChatGPT’yi kullanma biçimlerini özelleştirmeleri ve düzeylerini yükseltmeleri için daha fazla yol sunmakta ve OpenAI’nin şeffaflık ve güvenilirlik konusundaki itibarını artırmaktadır.
Aslında, bir kullanıcının burada gerçekten kötü niyetli bir şey yapabilmesi (örneğin, kötü amaçlı bir Python betiği yükleyip çalıştırabilmesi) riski, ChatGPT’nin korumalı bir ortamda çalışması gerçeğiyle hafifletilir. Bir kullanıcının yapabileceği her şey, teorik olarak, yalnızca kendi özel ortamıyla sınırlı olacak ve OpenAI’nin daha geniş altyapısından ve en hassas verilerinden kesinlikle izole edilecektir.
Ancak Figueroa, bilginin boyutunun ChatGPT, hızlı enjeksiyon yoluyla sızdırılıyor bir gün bilgisayar korsanlarının sıfır gün güvenlik açıklarını bulmalarına ve sanal alanlardan çıkmalarına yardımcı olabilir. “Yaptığım her şeye rastlamamın nedeni bir hataydı. Bilgisayar korsanlarının yaptığı budur [to find bugs],” diyor. Ve eğer deneme yanılma onlar için işe yaramıyorsa şunu ekliyor: “Yüksek Lisans size yardımcı olabilir bunun üstesinden nasıl gelineceğini bulmaya çalışırken.”
Dark Reading’e gönderilen bir e-postada OpenAI temsilcisi, bunların hiçbirini bir güvenlik açığı veya beklenmedik bir davranış olarak görmediğini yeniden doğruladı ve Figueroa’nın araştırmasında “teknik yanlışlıklar” olduğunu iddia etti. Dark Reading daha spesifik bilgiler için takip etti.
Daha Doğrudan Risk: Tersine Mühendislik
Ancak burada bir risk var, o da o kadar soyut değil.
Standart Linux dosyalarının yanı sıra ChatGPT, kullanıcılarının çok daha fazla işlem yapılabilir bilgiye erişmesine ve çıkarmasına da olanak tanır. Doğru yönlendirmelerle, modelin davranışını şekillendiren iç talimatları, yani kurallar ve yönergeleri ortaya çıkarabilirler. Ve daha da derinlerde, bilgi verilerine erişebilirler: modelin nasıl “düşündüğünü” ve kullanıcılarla nasıl etkileşime girdiğini tanımlayan temel yapı ve yönergeler.
Bir yandan kullanıcılar, güvenlik ve etik kaygıları nasıl ele aldığı da dahil olmak üzere ChatGPT’nin nasıl çalıştığına dair bu kadar net bir görüşe sahip oldukları için minnettar olabilirler. Öte yandan, bu içgörü, potansiyel olarak kötü aktörlerin bu korkulukları tersine mühendislik yapmasına ve kötü niyetli istemleri daha iyi tasarlamasına yardımcı olabilir.
Daha da kötüsü, bugün ChatGPT mağazasında mevcut olan milyonlarca özel GPT için bunun anlamıdır. Kullanıcılar programlama, güvenlik, araştırma ve daha fazlasına odaklanan özel ChatGPT modelleri tasarladılar ve onlara özel lezzetlerini veren talimat ve verilere, onları doğru yönlendirmelerle besleyen herkes erişebilir.
Figueroa, “İnsanlar, herkesin erişemeyeceğini düşünerek kuruluşlarından gelen güvenli verileri ve bilgileri bu GPT’lere koydu. Bunun bir sorun olduğunu düşünüyorum, çünkü verilerinize potansiyel olarak erişilip erişilemeyeceği açıkça belli değil” diyor.
Dark Reading’e gönderilen bir e-postada bir OpenAI temsilcisi, geliştiricileri risk konusunda uyaran GPT Builder belgelerine dikkat çekti: “Bilgi eklemeyin kullanıcının bilmesini istemezsiniz” okur ve kullanıcı arayüzünü işaretler, bu da şu uyarıyı verir: “Bilgi altında dosya yüklerseniz, GPT’nizle yaptığınız görüşmeler dosya içeriklerini içerebilir. Kod Yorumlayıcı etkinleştirildiğinde dosyalar indirilebilir.”