Üretken yapay zeka teknolojileri giderek daha karmaşık hale geliyor ve siber saldırılarda kullanılıyor. Microsoft ve OpenAI’nin söylediği şey bu, devlet tarafından finanse edilen bilgisayar korsanları tarafından büyük dil modellerinin (LLM) kötü niyetli kullanımına ilişkin araştırmalarının sonuçlarını az önce sundular.
Siber Sinyaller 2024 raporu, Rus, Kuzey Koreli, İranlı ve Çinli düşmanlardan gelen saldırıların yanı sıra bireylerin ve kuruluşların potansiyel saldırılara hazırlanmak için atabilecekleri adımları ayrıntılarıyla anlatıyor.
Her iki şirket de Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon ve Salmon Typhoon adlı grupların gerçekleştirdiği saldırıları takip etti. Her saldırı, araştırma, problem çözme ve içerik üretmeye yardımcı olmak da dahil olmak üzere, etkinliğini bir şekilde artırmak için Yüksek Lisans’ı kullandı.
Yeni bir düşman: konuşma sentezi
Örneğin, Kuzey Koreli bir aktör olan Emerald Sleet, Kuzey Kore’deki düşünce kuruluşlarını ve uzmanları araştırmak, hedef odaklı kimlik avı kampanyalarında kullanılabilecek içerik oluşturmak, kamuya açık olarak bilinen güvenlik açıklarını anlamak, teknik sorunları gidermek ve hatta çeşitli web teknolojilerinin kullanılmasına yardımcı olmak için Yüksek Lisans’ları kullandı. , rapora göre.
Benzer şekilde, İranlı bir aktör olan Crimson Sandstorm, sosyal mühendislik ve hata çözümü yardımı vb. konularda destek sağlamak da dahil olmak üzere teknik yardım almak için yüksek lisans eğitimlerini kullandı.
Microsoft, bir modeli yalnızca üç saniyede herkes gibi ses çıkaracak şekilde eğitebilen metin okuma gibi yapay zeka sahtekarlığının da ortaya çıkan ve büyüyen bir başka tehdit olduğunu söylüyor.
Eğitimin en büyük sorunu
Rapor, üretken yapay zekanın kötü aktörler tarafından kullanıldığını gösterirken, teknoloji aynı zamanda Microsoft gibi savunucular tarafından da daha akıllı koruma geliştirmek ve sohbet etme ve siber güvenlik anlamına gelen fare yarışının önünde kalmak için kullanılabilir.
Microsoft her gün 65 milyondan fazla siber güvenlik sinyalini tespit ediyor. Rapora göre yapay zeka, tehditleri durdurmak için en değerli bilgileri çıkarmak amacıyla bu sinyalleri analiz edebiliyor.
Microsoft ayrıca aşağıdakiler de dahil olmak üzere yapay zekayı kullanmanın diğer yollarını da sergiliyor:
- Ağ kaynaklarının veya trafiğin nasıl kullanıldığına ilişkin değişiklikleri tespit etmek için yapay zeka tehdit tespiti
- Riskli bağlantıları ve anormal davranışları tespit etmek için davranış analizi
- Riskli girişleri ve kötü amaçlı yazılımları tespit etmek için makine öğrenimi modelleri
- Her erişim isteğinin tamamen doğrulanması, yetkilendirilmesi ve şifrelenmesi gereken sıfır güven modelleri
- Bir cihazın kurumsal bir ağa bağlanabilmesi için cihazın sağlığının kontrol edilmesi
Raporun sonunda Microsoft, çalışanların ve halkın eğitiminin sosyal mühendislik teknikleriyle mücadele için gerekli olduğunu, bunun ancak insanların bunları tespit edememesi durumunda başarılı olabileceğini ve yapay zekaya dayalı olsun ya da olmasın önlemenin tüm siber tehditlerle mücadele için gerekli olduğunu belirtiyor.
Kaynak : “ZDNet.com”