YORUM

WormGPT (ChatGPT’nin Dark Web taklidi), hızla ikna edici kimlik avı e-postaları, kötü amaçlı yazılımlar ve bilgisayar korsanları için kötü amaçlı öneriler üretiyor) tüketici bilincine ve kaygılarına sızmaya başlıyor.

Neyse ki bu endişelerin birçoğu giderilebilir.

WormGPT’nin arka uç işlevlerini araştıran biri olarak, bu uğursuz araç hakkındaki söylemlerin çoğunun, yapay zeka tabanlı bilgisayar korsanlığı uygulamalarına ilişkin genel bir yanlış anlaşılmadan kaynaklandığını söyleyebilirim.

Şu anda, WormGPT chatbot asistanları büyük ölçüde sansürsüz GPT modelleridir ve bazı hızlı mühendislikler içerirler — algılanabileceklerinden çok daha az korkutucu ve karmaşıktırlar. Ancak bu, bu ve bunlara benzer diğer araçların ele alınmadığı takdirde çok daha tehdit edici hale gelemeyeceği anlamına gelmez.

Bu nedenle, siber güvenlik paydaşlarının WormGPT’nin mevcut yetenekleri ile öngörülebilir tehditler arasındaki farkları anlamaları önemlidir. olabilir Evrimleşirken poz verin.

Rekoru Düzeltmek

Endişeli müşterilerden gelen bir dizi soru, araştırmamı tetikledi. İlk Google aramaları beni çevrimiçi araçlar, ücretli hizmetler ve açık kaynaklı depoların bir karışımına yönlendirdi, ancak bunlar hakkındaki bilgiler genellikle parçalı ve yanıltıcıydı.

Birkaç anonimlik önlemi kullanarak araştırmamı Dark Web’e taşıdım ve burada çok sayıda varyasyon keşfettim. SolucanGPT farklı Dark Web dizinlerinde, bunların yararlılığı hakkında çok daha net bir resim sağladı. Hizmetlerin her biri, OpenAI’nin API’sini veya ücretli bir sunucuda çalışan başka bir sansürsüz büyük dil modelini (LLM) kullanarak önceden ayarlanmış etkileşimlerle gömülü şık ve ilgi çekici bir kullanıcı arayüzü sunar.

Ancak, bunların dışsal karmaşıklığı yalnızca ayrıntılı bir hiledir. Daha yakından incelediğimde, WormGPT araçlarının sağlam arka uç yeteneklerinden yoksun olduğunu gördüm; bu da çökmeye meyilli oldukları ve en yoğun kullanıcı talebi sırasında yüksek gecikme sorunları sergiledikleri anlamına geliyor. Özünde, bu araçlar yalnızca temel AI etkileşimleri için karmaşık arayüzlerdir, övüldükleri gibi kara şapkalı devler değil.

Önümüzdeki Potansiyel Riskler

Bununla birlikte, kademeli ilerlemeler üretken AI (GenAI) teknolojileri, yapay zekanın kötü niyetli kişiler adına karmaşık görevleri bağımsız olarak yönetebileceği bir geleceğin sinyallerini veriyor.

Siber saldırıları asgari düzeyde insan gözetimiyle gerçekleştirebilen, gelişmiş otonom ajanları hayal etmek artık çok da zor değil: Siber suç görevlerini gerçekleştirirken gerçek zamanlı çevikliklerini artırmak için “düşünce zinciri” süreçlerinden yararlanabilen yapay zeka programları.

Siber saldırı otomasyonu, gelişmiş GenAI modellerinin kullanılabilirliği nedeniyle olasılık dahilindedir. Örneğin WormGPT benzeri araçlar üzerine yaptığım araştırmalar sırasında, Google Colab gibi serbestçe erişilebilen kod paylaşım platformlarında sansürsüz bir modelin kolayca işlevselleştirilebileceğini keşfettim.

Bu erişilebilirlik, asgari düzeyde teknik uzmanlığa sahip bireylerin bile karmaşık saldırıları anonim olarak tasarlayıp başlatabileceğini gösteriyor. Ve GenAI ajanları meşru kullanıcı davranışlarını taklit etmede giderek daha yetenekli hale geldikçe, geleneksel düzenli ifade tabanlı filtreleme ve meta veri analizi gibi standart güvenlik önlemleri, AI kaynaklı siber tehditlerin belirgin sözdizimini tespit etmede daha az etkili hale geliyor.

Varsayımsal Saldırı Senaryosu

Amatör bir bilgisayar korsanının emriyle, yapay zeka destekli mekanizmaların gelişmiş bir siber saldırının çeşitli aşamalarında otonom bir şekilde nasıl gezinebileceğini gösteren bir senaryoyu ele alalım.

Öncelikle, yapay zeka, hedef şirketler hakkında arama motorlarından, sosyal medyadan ve diğer açık kaynaklardan kamuya açık verileri toplayarak veya LLM’de halihazırda gömülü olan bilgileri kullanarak keşif yapabilir. Buradan, hassas bilgiler, sızdırılmış e-posta dizileri veya diğer tehlikeye atılmış kullanıcı verileri gibi ek mühimmat toplamak için Karanlık Ağ’a girebilir.

Bu bilgileri kullanan yapay zeka uygulaması daha sonra sızma aşamasına başlayabilir, bilinen şirket e-posta adreslerine karşı kimlik avı kampanyaları başlatabilir, savunmasız sunucuları veya açık ağ bağlantı noktalarını tarayabilir ve giriş noktalarını ihlal etmeye çalışabilir.

Topladığı bilgilerle donatılan yapay zeka aracı, iş e-postası ihlali (BEC) kampanyalar düzenleyebilir, fidye yazılımı dağıtabilir veya hassas verileri tam özerklikle çalabilir. Bu istismar süreci boyunca, sosyal mühendislik yöntemlerini sürekli olarak iyileştirebilir, yeni hackleme araçları geliştirebilir ve karşı önlemlere uyum sağlayabilir.

AI aracı, geri alma-artırılmış nesil (RAG) sistemini kullanarak, topladığı verilere göre stratejilerini güncelleyebilir ve saldırının düzenleyicisine gerçek zamanlı olarak rapor verebilir. Dahası, RAG, AI’nın çeşitli varlıklarla yapılan görüşmeleri takip etmesini sağlayarak, ajanların hassas bilgileri depolamak ve birden fazla saldırı cephesini aynı anda yönetmek için veritabanları oluşturmasına ve tüm bir saldırgan departmanı gibi çalışmasına olanak tanır.

Kalkanı Kaldır

WormGPT’yi daha da tehlikeli bir araca dönüştürme yeteneği çok da uzakta değil ve şirketler önceden uygulanabilir yapay zeka destekli azaltma stratejileri hazırlamak isteyebilirler.

Örneğin, kuruluşlar gelen saldırıları önceden tahmin etmek ve etkisiz hale getirmek için tasarlanmış AI odaklı savunma önlemleri geliştirmeye yatırım yapabilirler. Gerçek zamanlı anormallik tespit sistemlerinin doğruluğunu artırabilir ve her organizasyon düzeyinde siber güvenlik okuryazarlığını geliştirmek için çalışabilirler. Uzman olay müdahale analistlerinden oluşan bir ekip de ileride daha da önemli hale gelecektir.

WormGPT araçları şu anda büyük bir sorun olmasa da, kuruluşlar tedbiri elden bırakmamalı. Bu kalibredeki yapay zeka destekli tehditler hızlı ve anında yanıt gerektirir.

Dedikleri gibi, erken kalkan yol alır.



siber-1