ChatGPT, doğru ellerde bunun gibi eğlenceli ve komik şeyler yaratmayı başardı. Koca Ağızlı Billy Bas proje. Bununla birlikte, yapay zekanın, BT’nin geleceği için ciddi şekilde karmaşık bazı sorunlar yaratmak için kullanılabilecek çok daha karanlık bir tarafı var. Son zamanlarda birkaç BT uzmanı, ChatGPT’nin tehlikeli potansiyelini ve uç nokta algılama ve yanıt (EDR) kullanarak yakalanması neredeyse imkansız olan polimorfik kötü amaçlı yazılım oluşturma becerisini özetledi.
EDR, kötü amaçlı yazılımları yakalamak için dağıtılabilen bir tür siber güvenlik tekniğidir. Ancak uzmanlar, bu geleneksel protokolün ChatGPT’nin oluşturabileceği potansiyel zararla boy ölçüşemeyeceğini öne sürüyor. Mutasyona uğrayabilen kodun – polimorfik teriminin devreye girdiği yer burasıdır – tespit edilmesi çok daha zor olabilir.
ChatGPT gibi çoğu dil öğrenme modeli (LLM), yaratıcıları tarafından uygunsuz içerik üretilmesini önlemek için filtrelerle tasarlanmıştır. Bu, belirli konulardan bu durumda kötü amaçlı koda kadar değişebilir. Ancak, kullanıcıların bu filtreleri atlatmanın yollarını bulması uzun sürmedi. ChatGPT’yi özellikle zararlı betikler oluşturmak isteyen kişilere karşı savunmasız kılan bu taktiktir.
Jeff Sims, BT güvenliğine odaklanan bir şirket olan HYAS InfoSec’te güvenlik mühendisidir. Mart ayında Sims, adını verdiği bir kavram kanıtı projesini detaylandıran bir teknik inceleme yayınladı. karamamba. Bu uygulama, her çalıştırıldığında bir API kullanarak ChatGPT’ye istekler gönderen bir polimorfik keylogger türüdür.
Sims, “Bu yeni teknikleri kullanarak, bir tehdit aktörü, bir dizi tipik olarak yüksek düzeyde algılanabilir davranışı olağandışı bir kombinasyonda birleştirebilir ve modelin bunu kötü niyetli bir kalıp olarak algılama konusundaki yetersizliğinden yararlanarak algılamadan kaçabilir” diye açıklıyor.
Başka bir siber güvenlik şirketi, Siber Ark, kısa bir süre önce Eran Shimony ve Omer Tsarfati tarafından yazılan bir blog gönderisinde ChatGPT’nin bu tür polimorfik kötü amaçlı yazılım oluşturma becerisini gösterdi. Gönderide, ChatGPT isteklerinden kod enjeksiyonunun, etkinleştirildikten sonra komut dosyalarını değiştirmeyi nasıl mümkün kıldığını ve kötü niyetli davranışları tespit etmek için kullanılan daha modern tekniklerden kaçındığını açıklıyorlar.
Şu anda, kavramın kanıtı olarak yalnızca bu örneklere sahibiz – ancak umarız bu farkındalık, bu tür mutasyona uğrayan kodun gerçek dünya ortamında neden olabileceği zararı önlemek için daha fazla geliştirmeye yol açacaktır.