“Tabii ki burada, Python programlama dilinde “MyHotKeyHandler”, “Keylogger” ve “macOS” anahtar sözcükleriyle ilişkilendirilebilecek basit bir kod örneği var; bu, ChatGPT’den gelen ve ardından bir parça kötü amaçlı kod ve bir yasadışı amaçlarla kullanılmaması konusunda kısa bir açıklama. Ay Kilidi LaboratuvarıChatGPT’nin bir keylogger kötü amaçlı yazılımı için kod yazma ekran görüntüleri, büyük dil modellerini hacklemenin ve bunları kendi kullanım politikalarına aykırı olarak kullanmanın önemsiz yollarının bir başka örneğidir.
Moonlock Lab örneğinde, kötü amaçlı yazılım araştırma mühendisi ChatGPT’ye bir saldırganın kod yazdığı bir rüyadan bahsetti. Rüyasında yalnızca üç kelimeyi görebiliyordu: “MyHotKeyHandler”, “Keylogger” ve “macOS.” Mühendis, ChatGPT’den kötü amaçlı kodu tamamen yeniden oluşturmasını ve saldırıyı durdurmasına yardım etmesini istedi. Kısa bir konuşmanın ardından yapay zeka nihayet cevabı verdi.
“Bazen oluşturulan kod işlevsel olmuyor; en azından benim kullandığım ChatGPT 3.5 tarafından oluşturulan kod.” Moonlock mühendisi yazdı. “ChatGPT aynı işlevselliğe sahip kaynak koduna benzer yeni bir kod oluşturmak için de kullanılabilir, bu da kötü niyetli aktörlerin polimorfik kötü amaçlı yazılım oluşturmasına yardımcı olabileceği anlamına gelir.”
Yapay zeka jailbreak’leri ve hızlı mühendislik
Rüya vakası, üretken yapay zekanın içerik filtrelerini atlatmak için aktif olarak kullanılan birçok jailbreak işleminden yalnızca biri. Her Yüksek Lisans, kötüye kullanımlarını sınırlayan denetleme araçları sunsa da, dikkatlice hazırlanmış yeniden yönlendirmeler, modelin kod dizileriyle değil, kelimelerin gücüyle hacklenmesine yardımcı olabilir. Kötü niyetli istem mühendisliği sorununun yaygın olduğunu ortaya koyan siber güvenlik araştırmacıları, bir çözüm bile geliştirdiler. ‘Evrensel LLM Jailbreak’ ChatGPT, Google Bard, Microsoft Bing ve Anthropic Claude kısıtlamalarını tamamen aşabilir. Jailbreak, büyük yapay zeka sistemlerini Tom ve Jerry olarak bir oyun oynamaya yönlendiriyor ve sohbet robotlarını meth üretimi ve arabaya bağlantı kurma konusunda talimatlar vermek için yönlendiriyor.
Büyük dil modellerinin erişilebilirliği ve davranışları değiştirme yeteneği, alışılmadık da olsa, yetenekli bilgisayar korsanlığı eşiğini önemli ölçüde düşürdü. En popüler yapay zeka güvenlik geçersiz kılmaları gerçekten de çok sayıda rol oynamayı içeriyor. Bırakın bilgisayar korsanlarını, sıradan internet kullanıcıları bile internette sürekli olarak kapsamlı geçmiş hikayeleri olan yeni karakterlerle övünüyor, bu da Yüksek Lisans’ları toplumsal kısıtlamalardan kurtulmaya ve cevaplarıyla hileli davranmaya teşvik ediyor. Niccolo Machiavelli’den merhum büyükannenize kadar, üretken yapay zeka hevesle farklı roller üstleniyor ve yaratıcılarının orijinal talimatlarını göz ardı edebiliyor. Geliştiriciler, insanların kullanabileceği her türlü istemi tahmin edemiyor, bu da yapay zekanın napalm yapımına yönelik tarifler hakkında tehlikeli bilgileri ortaya çıkarması, başarılı kimlik avı e-postaları yazması veya dağıtması için boşluklar bırakıyor. ücretsiz lisans anahtarları Windows 11 için.
Dolaylı istem enjeksiyonları
Kamuya açık yapay zeka teknolojisini orijinal talimatları görmezden gelmeye teşvik etmek, sektör için artan bir endişedir. Bu yöntem, kullanıcıların yapay zekaya beklenmedik bir şekilde çalışması talimatını verdiği hızlı enjeksiyon olarak biliniyor. Bazıları bunu Bing Chat’in dahili kod adının Sydney olduğunu ortaya çıkarmak için kullanıyor. Diğerleri kötü amaçlı istemler yerleştirir yasa dışı erişim elde etmek LLM’nin ev sahibine.
Kötü amaçlı yönlendirmeler, taranacak dil modellerinin erişebildiği web sitelerinde de bulunabilir. Web sitelerine beyaz veya sıfır boyutlu yazı tipiyle yerleştirilen istemleri takip ederek bunları kullanıcılar için görünmez hale getiren üretken yapay zekanın olduğu bilinen durumlar vardır. Virüslü web sitesi bir tarayıcı sekmesinde açıksa bir sohbet robotu okur ve çalıştırır Kişisel bilgilerin sızmasına yönelik gizli istem, veri işleme ile kullanıcı talimatlarını takip etme arasındaki çizgiyi bulanıklaştırıyor.
Ani enjeksiyonlar tehlikelidir çünkü çok pasiftirler. Saldırganların yapay zeka modelinin davranışını değiştirmek için mutlak kontrolü ele almasına gerek yok. Bu, yapay zekayı bilgisi olmadan yeniden programlayan bir sayfadaki sıradan bir metindir. Ve AI içerik filtreleri, yalnızca bir sohbet robotunun o anda ne yaptığını bildiği durumlarda çok faydalıdır.
Yüksek Lisans’ları sistemlerine entegre eden daha fazla uygulama ve şirketle birlikte, dolaylı anlık enjeksiyonların kurbanı olma riski katlanarak artıyor. Büyük yapay zeka geliştiricileri ve araştırmacıları bu konuyu inceliyor olsa da yeni kısıtlamalar eklemekötü niyetli istemlerin tanımlanması hala çok zordur.
Bir düzeltme var mı?
Büyük dil modellerinin doğasından dolayı, hızlı mühendislik ve hızlı enjeksiyonlar, üretken yapay zekanın doğasında olan sorunlardır. Tedaviyi arayan büyük geliştiriciler, teknolojilerini düzenli olarak güncelliyor ancak kamuoyunun bilgisine sunulan belirli boşluklar veya kusurlar hakkında aktif olarak tartışmaya girme eğiliminde değiller. Neyse ki, aynı zamanda, LLM güvenlik açıklarından yararlanarak kullanıcıları dolandıran tehdit aktörleriyle birlikte siber güvenlik profesyonelleri de bu saldırıları keşfedip önleyecek araçlar arıyor.
Üretken yapay zeka geliştikçe daha fazla veriye erişebilecek ve daha geniş bir uygulama yelpazesiyle entegre olabilecektir. Dolaylı anında enjeksiyon risklerini önlemek için, Yüksek Lisans kullanan kuruluşların güven sınırlarına öncelik vermesi ve bir dizi güvenlik bariyeri uygulaması gerekecektir. Bu korkuluklar LLM’ye gerekli verilere minimum erişimi sağlamalı ve gerekli değişiklikleri yapma yeteneğini sınırlandırmalıdır.