Siber güvenlik şirketine göre CrowdStrike, yıllık küresel tehditler raporundaÇarşamba günü yayınlanan bir raporda, siber suç örgütleri saldırılarında üretken yapay zekayı kullanmak için zaten adımlar attı. Özellikle Meta’nın Llama 2 büyük dil modeli (LLM).
Grup, ayrıntılı olarak Dağınık Örümcek CrowdStrike’ın bildirdiğine göre, Microsoft’un PowerShell görev otomasyon programı için komut dosyaları oluşturmak amacıyla Meta’nın LLM’sini kullandı. CrowdStrike’a göre bu program, “Kuzey Amerika’daki finansal hizmetler kurbanı”nın çalışan oturum açma bilgilerini indirmek için kullanıldı.
Yazarlar PowerShell kodunu inceleyerek Llama 2’nin kullanımının izini sürdüler. CrowdStrike, “Değişmez kullanıcı kimlik bilgilerini indirmek için kullanılan PowerShell, ChatGPT’deki gibi büyük dil modeli (LLM) yapılarına benziyor” diyor. “Bu özellikle Llama 2 70B modeline karşılık gelen yorum ve komut şemasıyla ilgilidir. Scattered Spider muhtemelen PowerShell betiğini oluşturmak için bir Yüksek Lisans’a güveniyordu.”
Hala sınırlı bir sıkıntı kapasitesi
Yazarlar, üretken yapay zekaya dayalı veya üretken yapay zeka tarafından geliştirilmiş saldırıları tespit etme yeteneğinin şu anda sınırlı olduğuna dikkat çekiyor. Ne için ? Yüksek Lisans kullanımına ilişkin izleri bulmanın zorluğu nedeniyle. Ancak şirket, yüksek lisans kullanımının şu ana kadar sınırlı olduğunu öne sürüyor: “Yalnızca nadir somut gözlemler, üretken yapay zekanın olası bir kullanımına işaret ediyor.”
Ancak şirket, üretken yapay zekanın kötü niyetli kullanımının kesinlikle artacağını tahmin ediyor.
Üstelik bugüne kadar gerçekleştirilen saldırılar, büyük dil modelleri geliştirmenin yüksek maliyetiyle karşı karşıya kalıyor. Bu, saldırganların modellerden saldırı kodu olarak kullanabileceği sonuçların türünü sınırlar.
Seçimle ilgili dezenformasyonla ilgili büyük soru
Raporda, “2023’te bu tür modeller oluşturma ve kullanma girişimleri genellikle nispeten zayıf sonuçlar veren dolandırıcılıklarla sonuçlandı ve çoğu durumda hızla terk edildi” denildi.
Yanlış bilgi, kod oluşturmanın yanı sıra üretken yapay zekanın kötü niyetli kullanımının başka bir yoludur. Bu bağlamda CrowdStrike’ın raporu, bu yıl dezenformasyon kampanyalarına konu olabilecek çok sayıda hükümet seçiminin altını çiziyor.
Yazarlar, bu yılki ABD başkanlık seçimine ek olarak, “dünya nüfusunun yüzde 42’sinden fazlasını temsil eden 55 ülkeden bireylerin başkanlık, parlamento ve/veya genel seçimlere katılacağını” belirtiyor.
Seçimlere müdahale iki kategoriye ayrılır: düşük teknoloji ve yüksek teknoloji.
Yazarlara göre, yüksek teknolojili kısım, hem oylama mekanizmalarını hem de oylama bilgilerinin seçmenlere yayılmasını değiştirerek oylama sistemlerini bozmak veya bozmak için kullanılacak.
“Düşük teknoloji” yaklaşımı, “halkın güvenini sarsabilecek” “yıkıcı anlatılar” gibi yanlış bilgileri içerir.
Bu tür “bilgi operasyonları” veya CrowdStrike’ın adlandırdığı şekliyle “IO” halihazırda gerçekleşiyor.
Analist, “Tayvan başkanlık seçimlerinde adayları eleştiren içeriği yaymak için sosyal medya etkileme kampanyalarının bir parçası olarak AI tarafından oluşturulan içeriği kullanan Çinli aktörleri” tespit ettiğini iddia ediyor.
Şirket şunu öngörüyor: “Yapay zeka araçlarının yanıltıcı ama zorlayıcı anlatılar üretme kolaylığı göz önüne alındığında, kötü niyetli aktörler büyük olasılıkla bu araçları 2024 seçimlerine karşı IO’lar yürütmek için kullanacaklar. Seçimlerin yapıldığı ülkelerdeki siyasi aktivistler de dezenformasyon yaratmak için büyük olasılıkla üretken yapay zekayı kullanacaklar.” kendi çevrelerine yayılmak için.”
Kaynak : “ZDNet.com”