Yapay zeka ve makine öğrenimi (AI/ML) modelleri, kimlik avı tuzaklarının karmaşıklığını artırma, sentetik profiller oluşturma ve ilkel kötü amaçlı yazılım oluşturma konusunda şimdiden bir miktar umut vaat ediyor, ancak siber saldırıların daha da yenilikçi uygulamalarının yakın gelecekte ortaya çıkması muhtemel.

Kötü amaçlı yazılım geliştiricileri, güvenlik araştırmacılarının eksiksiz bir saldırı zincirinin oluşturulabileceğini göstermesiyle, yapay zeka kullanarak kod oluşturmayla şimdiden oynamaya başladılar.

Örneğin, Check Point Araştırma ekibi, OpenAI’nin ChatGPT’si tarafından oluşturulan ve kurbanı bir Excel belgesini açmaya teşvik eden bir kimlik avı e-postasından başlayarak eksiksiz bir saldırı kampanyası oluşturmak için mevcut yapay zeka araçlarını kullandı. Araştırmacılar daha sonra, hedeflenen sisteme bulaşmak için bir URL’den indirilen kodu ve bir Python betiğini yürüten bir Excel makrosu oluşturmak için Codex AI programlama asistanını kullandılar.

Check Point Research tehdit istihbaratı grup yöneticisi Sergey Shykevich, her adımın kabul edilebilir bir kod üretmek için birden fazla yineleme gerektirdiğini, ancak nihai saldırı zincirinin işe yaradığını söylüyor.

“Çok fazla yineleme gerektirdi” diyor. “Her adımda, ilk çıktı en uygun çıktı değildi — bir suçlu olsaydık, antivirüs tarafından engellenirdik. İyi bir kod üretebilmemiz zaman aldı.”

Geçtiğimiz altı hafta boyunca, OpenAI’nin üretken önceden eğitilmiş dönüştürücüsünün (GPT-3) üçüncü yinelemesine dayanan büyük bir dil modeli (LLM) olan ChatGPT, hem iyimser hem de korkulu çeşitli ne olursa olsun senaryolarını teşvik etti. yapay zeka ve makine öğreniminin potansiyel uygulamaları. AI/ML modellerinin çift kullanımlı doğası, işletmeleri teknolojiyi kullanarak verimliliği artırmanın yollarını bulmaya zorlarken, dijital haklar savunucuları teknolojinin kuruluşlar ve çalışanlar üzerinde yaratacağı etki konusunda endişeleniyor.

Siber güvenlik farklı değil. Araştırmacılar ve siber suç grupları, çeşitli görevler için GPT teknolojisini kullanmayı çoktan denediler. Acemi kötü amaçlı yazılım yazarlarının kötü amaçlı yazılım yazmak için ChatGPT’yi kullandıkları iddia ediliyor, ancak geliştiriciler uygulamalar üretmek için ChatGPT hizmetini kullanmaya çalışıyor. bazen başarılı olurkensıklıkla hatalar ve güvenlik açıkları içeren kodlar üretin.

Yine de AI/ML, diğer güvenlik ve gizlilik alanlarını da etkiliyor. Üretken sinir ağları (GNN’ler), dolandırıcılık ve dezenformasyon için kullanılan profilleri geliştirmenin bir yolu olarak, otantik görünen ancak gerçek bir kişiyi tasvir etmeyen sentetik insan fotoğrafları oluşturmak için kullanılmıştır. Üretken düşman ağı (GAN) olarak bilinen ilgili bir model, belirli kişilerin sahte video ve seslerini oluşturabilir ve bir durumda, dolandırıcıların muhasebecileri ve insan kaynakları departmanlarını suçluların banka hesabına 35 milyon dolar havale etmeye ikna etmesine izin verdi.

AI sistemleri yalnızca zamanla gelişecek ve mevcut savunma stratejilerini kandırabilecek çeşitli gelişmiş tehditlerin hayaletini artıracaktır.

Bir (Phishing) Temasındaki Çeşitlemeler

Şimdilik, siber suçlular hedefli kimlik avı e-posta mesajları oluşturmak veya iş e-postası ele geçirme (BEC) saldırıları için açılış sayfaları oluşturmak için genellikle aynı veya benzer şablonu kullanıyor, ancak bir kampanya genelinde tek bir şablon kullanmak, savunma yazılımının saldırıyı tespit etme şansını artırıyor.

Bu nedenle, ChatGPT gibi LLM’lerin ilk temel kullanımlarından biri, kurbanın profiline dinamik olarak uyum sağlayabilen, daha fazla değişkenlik ve çeşitli dillerde daha ikna edici kimlik avı yemleri üretmenin bir yolu olacaktır.

E-posta güvenlik firması Abnormal Security’de tehdit istihbaratı yöneticisi olan Crane Hassold, bu noktayı göstermek için ChatGPT’den basit bir kimlik avı e-posta isteğinde beş varyasyon oluşturmasını istedi. Beş varyasyon, birbirinden önemli ölçüde farklıydı ancak aynı içeriği korudu – insan kaynakları departmanına, kurgusal bir şirketin maaş çekinin yatırıldığı banka hesabını değiştirmek için hangi bilgilere ihtiyaç duyacağına dair bir talep.

Hızlı, Saptanamayan İmplantlar

Acemi bir programcı, bir AI kodlama asistanı kullanarak kötü amaçlı bir program oluşturabilse de, hatalar ve güvenlik açıkları yine de engel olur. AI sistemlerinin kodlama yetenekleri etkileyicidir, ancak nihayetinde kendi başlarına çalışan kod oluşturabilecek seviyeye yükselmezler.

Yine de, tıpkı kötü amaçlı yazılım yazarlarının imza tarama motorları tarafından tespit edilmekten kaçmak için çok sayıda virüs ve solucan çeşidi oluşturmak için otomasyonu kullanması gibi, ilerlemeler gelecekte bunu değiştirebilir. Benzer şekilde, saldırganlar, kuruluşlar yama yapmadan önce en son güvenlik açıklarını kullanan hızlı implantlar oluşturmak için yapay zekayı kullanabilir.

Check Point’ten Shykevich, “Bence bu bir düşünce deneyinden biraz daha fazlası,” diyor. “İşlenebilir kötü amaçlı yazılım oluşturmak için bu araçları kullanabildik.”

Turing Testini Geçmek mi?

Belki de AI sisteminin en iyi uygulaması, en bariz olanı olabilir: yapay insanlar olarak işlev görme yeteneği.

Daha şimdiden, ChatGPT ve diğer yapay zeka sistemleriyle etkileşime giren kişilerin çoğu – bazı sözde uzmanlar da dahil – makinelerin bir tür duyarlılık kazandığına inanıyor. Belki de en ünlüsü, Google’ın bir yazılım mühendisi olan Blake Lemoine’i kovmasıdır. şirketin LaMDA olarak adlandırılan LLM’sinin bilince ulaştığını iddia etti.

Yapay zeka/ML sistemlerine yönelik tehditleri inceleyen Berryville Makine Öğrenimi Enstitüsü’nün kurucu ortağı ve CEO’su Gary McGraw, “İnsanlar kavramsal olarak bu makinelerin ne yaptıklarını anladığına inanıyor” diyor. “Yaptıkları şey inanılmaz, istatistiksel tahmine dayalı oto-ilişkilendiriciler. Yapabildikleri şeyi yapabilmeleri akıllara durgunluk veriyor – bu kadar harika şeylere sahip olabilmeleri. Ama bu anlamak değil.”

Bu oto-ilişkilendirmeli sistemler sezgiye sahip olmasa da, yaygın bir siber suç olan hesapların ele geçirilmesine karşı genellikle son savunma hattını temsil eden bir grup olan çağrı merkezlerinde ve destek hatlarında çalışanları kandırmak için yeterince iyi olabilirler.

Tahmin Edilenden Daha Yavaş

Yine de, siber güvenlik araştırmacıları hızla bazı yenilikçi siber saldırılar geliştirmiş olsa da, tehdit aktörleri muhtemelen geri çekilecek. Abnormal Security’den Hassold, ChatGPT’nin teknolojisi “kesinlikle dönüştürücü” olsa da, saldırganların ChatGPT’yi ve diğer yapay zeka ve makine öğrenimi biçimlerini yalnızca para kazanmaya daha hızlı bir yol sunması durumunda benimseyeceklerini söylüyor.

Hassold, “AI siber tehditleri yıllardır gündemde olan bir konu” diyor. “Fakat finansal olarak motive olmuş saldırganlara baktığınızda, saldırılarını kolaylaştırmak için çok çaba sarf etmek veya çalışmak istemiyorlar, en az çabayla mümkün olduğunca çok para kazanmak istiyorlar.”

Şimdilik, insanlar tarafından gerçekleştirilen saldırılar, derin sahte veya GPT tarafından oluşturulan metin gibi yapay zeka ile geliştirilmiş saldırılar oluşturmaya çalışmaktan daha az çaba gerektiriyor, diyor.

Savunma AI Kabartmasını Görmezden Gelmeli

Siber saldırganların en son yapay zeka sisteminden faydalanması, şimdilik saldırıların tespit edilmesinin daha zor olduğu anlamına gelmiyor. Hassold, AI/ML modelleri tarafından üretilen mevcut kötü niyetli içeriğin genellikle pastanın üzerindeki krema olduğunu vurguluyor – bunlar metin veya görüntülerin daha insani görünmesini sağlıyor, ancak teknik göstergelere odaklanarak siber güvenlik ürünleri yine de tehdidi tanıyabiliyor, Hassold.

“Kötü niyetli e-postaları tespit etmek için kullandığımız aynı türden davranışsal göstergelerin hepsi hâlâ orada,” diyor. “E-posta daha meşru görünse de, e-postanın onu gönderen kişiye ait olmayan bir e-posta adresinden gelmesi veya bir bağlantının yakın zamanda kaydedilmiş bir alan adında barındırılıyor olması – bunlar göstergelerdir. bu değişmeyecek.”

Benzer şekilde, bir banka hesabını ödeme ve maaş havalesi için değiştirme isteklerini iki kez kontrol etmek için yürürlükte olan süreçler, tehdit grubu daha yaygın hale gelen ek güvenlik katmanları üzerinde erişime veya kontrole sahip olmadığı sürece, en inandırıcı derin sahte kimliğe bürünmeyi bile yenebilir.



siber-1