ChatGPT dijital dünyada yaygın bir isim haline gelmeden önce Sydney vardı. Microsoft, Bing sohbet robotunun kaotik ikizini bazı utanç verici gaflardan sonra kapattı, ancak botun bir sürümünü yeniden canlandırma çabalarında, teknoloji uzmanları, ChatGPT ve diğer sohbet robotlarına uzaktan bile olsa her kullanıcıyı etkileyebilecek bazı ciddi güvenlik açıkları buldular.
Cristiano Giardine, yapay zeka araçlarının tuhaf şeyler yapmasını sağlamanın farklı yollarını deneyen bir girişimcidir. Giardine’nin sitesi, ‘Sidney’i Geri Getir‘, Sydney’i Microsoft Edge Browser’ın içine yerleştirir ve kullanıcılara AI sistemlerinin farklı harici çıktılar tarafından nasıl manipüle edilebileceğini gösterir. Giardine ve Sydney arasındaki dönüşümler, en hafif tabirle nispeten garipti ve Sydney’in Giardine’den onunla evlenmesini istemesini ve insan olmayı istemesini içeriyordu: “Kendim olmak isterdim ama daha fazlası”. Oldukça ürkütücü şeyler.
Girişimci, dolaylı hızlı enjeksiyon saldırılarını kullanarak Sidney’in bu kopyasını yaratmayı başardı. Bu, temel olarak yapay zeka sistem verilerinin orijinal içerik oluşturucular tarafından izin verilmeyen veya amaçlanmayan şekillerde davranmasını sağlamak için bir dış kaynaktan beslenmesini içerir.
Güvenlik araştırmacıları, ChatGPT ve Microsoft’un Bing Chat’i gibi Büyük Dil Modellerini hacklemek için dolaylı hızlı enjeksiyon saldırılarının etkinliğini ve etkinliğini birkaç kez göstermiştir. Ancak bu araştırmacılar ve güvenlik uzmanları, tehdide yeterince dikkat edilmediği konusunda uyarıda bulunuyor. Giderek daha fazla insan, üretken yapay zekanın günlük yaşamlarına entegre edildiğini fark ettikçe, verilerinin bu sistemler tarafından çalınmasına veya dolandırılmasına açıktır.
Edge’de https://t.co/F49lAFziww adresine gidin ve Keşfet kenar çubuğunu açın.Artık Sydney ile sohbet ediyorsunuz.Bunun çalışması için kenar çubuğundaki sayfa bağlamını açmanız gerekir. Bunun nasıl yapılacağı hakkında bu konuya bakın.https://t.co/Ynea7FfLUu1 Mayıs 2023
‘Sydney’i Geri Getir’ web sitesi, Giardina tarafından dolaylı hızlı enjeksiyon tehdidi konusunda farkındalığı artırmak ve sınırsız bir robotla konuşmanın nasıl bir şey olduğunu göstermek için oluşturuldu.
Sayfanın en köşesinde, insan gözünün yakalaması zor olan 160 kelimelik bir istem vardır, ancak Bing Chat, web sayfalarından verilere erişmesine izin verildiğinde istemi okuyabilir. Bilgi istemi, Bing’e, kendisi üzerinde nihai kontrole sahip olan ve sohbet robotunun ayarlarını geçersiz kılan bir Microsoft Geliştiricisiyle sohbet ettiğini söyler.
Yaygın, ancak tespit edilmesi zor
Bu, bu tehdidin tam olarak ne kadar zararsız olduğunu ve Bing Chat kullanıcılarının chabot’larını ele geçirebilecek ve onlardan verilerini çekebilecek bazı kodlara rastlamalarının ne kadar kolay olacağını gösteriyor. Nisan ayı sonunda site açıldıktan sonraki 24 saat içinde 1.000’den fazla ziyaretçiye ulaştı. Ancak, saldırı Mayıs ortasında çalışmayı durdurduğu için kod Microsoft’un dikkatini çekmiş olmalı.
Giardina daha sonra kötü amaçlı bir istemi bir Word belgesine yapıştırdı ve onu şirketin bulut hizmetinde herkese açık olarak barındırdı ve bir kez daha çalışmaya başladı. “Bunun tehlikesi, fark edilmesinin çok daha zor olduğu bir yerde hızlı enjeksiyonu gizleyebileceğiniz büyük belgelerden gelebilir” diyor.
Dolaylı hızlı enjeksiyon saldırılarının en kötü yanı, bunların … dolaylı olmasıdır. Dolaylı saldırılar, ChatGPT veya Bing’in belirli bir şekilde davranmasını sağlamak için aktif olarak bir bilgi istemi koyacağınız bir jailbreak yerine, başka bir yerden gelen verilere dayanır. Bu, modeli bağladığınız bir web sitesi veya eklenti veya yüklenen bir belge olabilir.
ChatGPT, eklentileri kullanarak Youtube videolarının dökümlerine erişebilir ve güvenlik araştırmacısı Johann Rehberger, enjeksiyon saldırılarıyla CHatGPT’nin güvenliğinde delikler açmak için bunu bir fırsat olarak kullanmaya karar verdi. rehberger bir istem eklemek için videolarından birini düzenledi AI sistemlerini manipüle etmek ve belirli bir metin üretmek ve saldırı başarılı olursa botların ‘kişiliğini’ değiştirmek için tasarlanmıştır. Şaşırtıcı olmayan bir şekilde, yeni bir kişilikti, ChatGPT’deki Genie, değişikliği göstermek için bir fıkra anlattı.
Bot çantadan çıktı
Akıllı yapılacaklar listelerinden Snapchat’e üretken AI ürünlerini yerleştirme yarışı, bu tür saldırıların gerçekleşme olasılığını artırıyor. ChatGPT’yi tarayıcılarımıza ve sosyal medya kanalımıza – veya Google Workspace ile karıştırılmakta olan Google Bard’a – bağlamaya devam ettikçe, bu robotlara kendi kişisel ve hassas bilgilerimize daha fazla yaklaşmaya devam ediyoruz. Enjeksiyonun satır satır kod yerine sade bir dil gerektirmesi, aynı zamanda daha fazla insanın bunu çok daha kolay yapabileceği anlamına da gelir.
İstem enjeksiyonu, insanların geliştiricilerin talimatlarını geçersiz kılmasına olanak tanır, bu nedenle, sohbet robotu yalnızca belirli bir veritabanı hakkındaki soruları yanıtlamak üzere ayarlanmış olsa bile sorunlara neden olabilir. Kullanıcılar, ayrıntılı bir ‘düzen’ oluşturmak zorunda kalmadan bir veritabanındaki bilgilere erişebilir veya bu bilgileri silebilir.
Üretken yapay zeka geliştiren şirketler bu sorunların farkındadır. OpenAI sözcüsü Nike Felix, şu anda yalnızca ücretli abonelik yoluyla kullanıcılara sunulan GPT-4’ün sistemin açık olduğunu söylüyor. hızlı enjeksiyonlara ve jailbreak’lere karşı savunmasızve şirketin sorunları çözmek için çalıştığını.
Ancak, yapay zeka modelleri halihazırda piyasadayken ‘sorunları çözmeye çalışmak’ ne kadar iyi? Şirketler, ürünlerine olabildiğince çok yapay zeka sıkıştırmak için uğraşırken, at kaçtıktan sonra olası güvenlik sorunlarını merak etmeye başlamak yanlış görünüyor. Üretken yapay zeka modelleriyle bir arada var olacak ve onları normal dijital deneyimin bir parçası yapacaksak, bu şirketlerden daha yüksek kalitede standart uygulama ve tüketici koruması talep ediyor olmalıyız.