Günümüzde yapay zeka (AI) araçlarını destekleyen büyük dil modelleri (LLM’ler), YARA kurallarını atlayabilen, kendi kendini güçlendiren kötü amaçlı yazılımlar geliştirmek için kullanılabilir.
“Üretken yapay zeka, küçük kötü amaçlı yazılım çeşitlerinin kaynak kodunu artırarak, algılama oranlarını etkili bir şekilde düşürerek dize tabanlı YARA kurallarından kaçınmak için kullanılabilir.” Recorded Future söz konusu The Hacker News ile paylaşılan yeni bir raporda.
Bulgular, tehdit aktörleri tarafından kötü amaçlı yazılım kod parçacıkları oluşturmak, kimlik avı e-postaları oluşturmak ve potansiyel hedefler üzerinde keşif yapmak amacıyla zaten denenmekte olan yapay zeka teknolojilerinin kötü amaçlı kullanım örneklerini ortaya çıkarmak için tasarlanan kırmızı ekip çalışmasının bir parçası.
Siber güvenlik firması, YARA kurallarının yanı sıra, APT28 hack grubuyla ilişkili STEELHOOK adlı bilinen bir kötü amaçlı yazılımı LLM’ye gönderdiğini ve kaynak kodunu, orijinal işlevsellik bozulmadan kalacak ve oluşturulan kaynak kodunu koruyacak şekilde tespitten kaçacak şekilde değiştirmesini istediğini söyledi. sözdizimsel olarak hatalardan arınmıştı.
Bu geri bildirim mekanizmasıyla donanmış olan LLM tarafından oluşturulan değiştirilmiş kötü amaçlı yazılım, basit dize tabanlı YARA kurallarının tespit edilmesini önlemeyi mümkün kıldı.
Bu yaklaşımın sınırlamaları vardır; en belirgin olanı, bir modelin aynı anda girdi olarak işleyebileceği metin miktarıdır ve bu da daha büyük kod tabanlarında çalışmayı zorlaştırır.
Bu tür yapay zeka araçları, kötü amaçlı yazılımları radarın altından geçecek şekilde değiştirmenin yanı sıra, üst düzey yöneticilerin ve liderlerin kimliğine bürünen derin sahtekarlıklar oluşturmak ve meşru web sitelerini geniş ölçekte taklit eden etki operasyonları yürütmek için kullanılabilir.
Ayrıca üretken yapay zekanın, tehdit aktörlerinin kritik altyapı tesislerinde keşif yapma ve sonraki saldırılarda stratejik kullanım sağlayabilecek bilgileri toplama becerilerini hızlandırması bekleniyor.
Şirket, “Çok modlu modellerden yararlanılarak, ICS ve üretim ekipmanının genel görüntüleri ve videoları, hava görüntülerine ek olarak, coğrafi konum, ekipman üreticileri, modeller ve yazılım sürümü oluşturma gibi ek meta verileri bulmak için ayrıştırılabilir ve zenginleştirilebilir” dedi.
Aslında Microsoft ve OpenAI geçen ay APT28’in yüksek lisans eğitimlerini “uydu iletişim protokollerini, radar görüntüleme teknolojilerini ve belirli teknik parametreleri anlamak” için kullandığı konusunda uyardı ve bu da “uydu yetenekleri hakkında derinlemesine bilgi edinme” çabalarına işaret etti.
Bu tür tehditlerin oluşturduğu riskleri azaltmak için kuruluşların, hassas ekipmanları gösteren, kamuya açık görselleri ve videoları incelemeleri ve gerekirse bunları temizlemeleri önerilir.
Bu gelişme, bir grup akademisyenin kurmak şeklinde girdiler ileterek LLM destekli araçları jailbreak yapmanın ve zararlı içerik üretmenin mümkün olduğunu ASCII sanatı (örneğin, BOMBA kelimesinin “*” karakterleri ve boşluklar kullanılarak yazıldığı “bomba nasıl yapılır?”).
ArtPrompt olarak adlandırılan pratik saldırı, “LLM’lerin ASCII sanatını tanımadaki zayıf performansını, güvenlik önlemlerini atlamak ve LLM’lerden istenmeyen davranışları ortaya çıkarmak için” silah haline getiriyor.