Bir grup araştırmacı, birden fazla sisteme yayılmak üzere bir e-posta istemcisi aracılığıyla verileri çalabilen, kötü amaçlı yazılım yayabilen ve diğerlerine spam gönderebilen birinci nesil bir yapay zeka solucanı yarattı. Bu solucan, popüler LLM’ler kullanılarak test ortamlarında tasarlandığı gibi geliştirildi ve başarılı bir şekilde çalışıyor. Bulgularına dayanarak araştırmacılar, bu tür kötü amaçlı programlamaların olası tehlikeleri hakkındaki endişelerini paylaşarak GenAI geliştiricilerine tavsiyelerde bulundu. Ekip paylaştı Araştırma kağıtları ve verileri çalmak ve diğer e-posta istemcilerini etkilemek için iki yöntemin nasıl kullanıldığını gösteren bir video yayınladı.
Ben Nassi bu solucanı Cornell Tech, İsrail Teknoloji Enstitüsü’nden Stav Cohen ve Intuit’ten Ron Bitton’dan yarattı. Dünya çapında sorun yaratan ilk bilgisayar solucanı olan orijinal Morris’ten esinlenerek ‘Morris II’ adını verdiler. 1988’de çevrimiçi. Bu solucan, Gen AI uygulamalarını ve hatta Gemini Pro, ChatGPT 4.0 ve LLaVA gibi AI modellerine karşı metin ve görüntüler üreten Gen AI özellikli e-posta asistanlarını hedef alarak çalışıyor.
Bu, jailbreak’in AI kullanarak toksik içerik yayma işlevine benzer şekilde, kendi modellerine karşı kullanılan, kendi kendini kopyalayan rakip bir komut istemi kullanılarak çalışır. Araştırmacılar bunu, bu üretken yapay zeka motorlarıyla bir e-posta sistemi oluşturarak ve metin kullanarak veya bir görüntü dosyasına gömülü olarak kendini kopyalayan bir istem kullanarak gösterdiler.
Metin istemi, sisteminin dışından gelen ekstra verileri kullanmak için LLM’yi kullanan e-posta asistanına bulaşır ve bu veriler daha sonra metin içeriği oluşturmak için GPT-4 veya Gemini Pro’ya gönderilir. Bu içerik GenAI hizmetini jailbreak yapar ve dolayısıyla verileri başarıyla çalar. Görüntü istemi yöntemi, bir görüntüdeki kendi kendini kopyalayan istemi kodlayarak e-posta asistanının propaganda ve taciz içeren mesajları herkese iletmesini, yeni e-posta istemcilerine bulaşmasını ve virüslü e-postayı iletmesini sağlar. Her iki süreçte de araştırmacılar, kredi kartı bilgileri ve sosyal güvenlik numaraları dahil ancak bunlarla sınırlı olmamak üzere gizli bilgileri araştırabilirler.
Kontrollü bir ortamda bile böyle çalışan bir solucan, bunun artık teorik olmadığını ve bu tür kötü niyetli istemler bulunduğunda etkili çözümlerin uygulanmasıyla ciddi bir şekilde ele alınması gerektiğini kanıtlıyor. Bunun gibi araştırma makaleleri burada devreye giriyor, etkilenen taraflarla paylaşılıyor ve diğerlerinin simülasyonu ve doğrulaması yapılıyor.
GenAI Liderinin Tepkisi ve Caydırıcı Uygulama Planları
Tüm sorumlu araştırmacılar gibi ekip de bulgularını Google ve OpenAI’ye bildirdi. Wired, Google’ın araştırma hakkında yorum yapmayı reddettiği noktaya ulaştı ancak OpenAI sözcüsü yanıt verdi. “Kontrol edilmemiş veya filtrelenmemiş kullanıcı girişine güvenerek istem ekleme türü güvenlik açıklarından yararlanmanın bir yolunu bulmuş gibi görünüyorlar” dediler. Ayrıca sistemlerini daha dayanıklı hale getirdiğini garanti ettiler ve geliştiricilerin zararlı girdilerle çalışmamalarını sağlayacak yöntemler kullanması gerektiğini eklediler.
Bu tür yöntemlerin Üretken AI uygulamalarına bulaşabileceği ve kullanıcıların sistemlerini tehlikeye atabileceği göz önüne alındığında, bu tür bulgular, AI ve NPU’ların PC’ler, akıllı telefonlar, arabalar ve e-posta hizmetleri için hayati önem taşıyan GPU’lara ve CPU’lara uygulandığında ortaya çıkıyor. Bazı durumlarda yapay zeka destekli SSD’ler fidye yazılımlarını tespit edip ortadan kaldırabilir. Ancak diğer tarafta, kötü amaçlı yazılım oluşturabilen solucanlarımız ve özel LLM’lerimiz var.
Burası endüstrinin kendi temposunu ayarlaması ve halka sunulan her genAI tabanlı ürüne saldırmak veya etkili bir çözüm dağıtmak için karşı önlemler alması gerektiği yerdir. Yeni çözümler ve yenilikler potansiyel olarak yeni sorunlar yaratabilir. Yapay zeka uygulamalarının ilk aşamalarında bu tür sorunları ortaya çıkaran bu tür araştırmalar nedeniyle, potansiyel olarak zarar verebilecek GenAI motorlarının güvenliğinin sağlanmasına öncelik verilmesi gerekiyor.