Çin, İran, Kuzey Kore ve Rusya ile uyumlu gelişmiş kalıcı tehditlerin (APT’ler) tümü, operasyonlarını geliştirmek için büyük dil modelleri (LLM’ler) kullanıyor.

Yeni blog gönderileri OpenAI Ve Microsoft beş büyük tehdit aktörünün OpenAI yazılımını araştırma, dolandırıcılık ve diğer kötü amaçlarla kullandığını ortaya koyuyor. OpenAI onları belirledikten sonra tüm hesaplarını kapattı.

Yapay zeka destekli ulus devlet siber operasyonlarının olasılığı ilk başta göz korkutucu görünse de iyi haberler var: Şu ana kadar gözlemlenen bu LLM suiistimallerinin hiçbiri özellikle yıkıcı olmadı.

Microsoft, raporunda “LLM teknolojisinin tehdit aktörleri tarafından mevcut kullanımı, saldırganların yapay zekayı başka bir üretkenlik aracı olarak kullanmasıyla tutarlı davranışları ortaya çıkardı” dedi. “Microsoft ve OpenAI, tehdit aktörlerinin yapay zeka kullanımından kaynaklanan özellikle yeni veya benzersiz yapay zeka destekli saldırı veya kötüye kullanma tekniklerini henüz gözlemlemedi.”

OpenAI Kullanan Ulus-Devlet APT’leri

Bugün OpenAI kullanan ulus devlet APT’leri dünyanın en kötü şöhretli APT’leri arasında yer alıyor.

Microsoft’un Forest Blizzard olarak takip ettiği grubu düşünün, ancak Daha çok Süslü Ayı olarak bilinir. Demokratik Ulusal Komite’nin hacklediği, Ukrayna’yı terörize eden, Rusya Federasyonu Silahlı Kuvvetleri Genelkurmay Ana Müdürlüğü’ne (GRU) bağlı askeri birlik, dosya manipülasyonu, veri seçimi, çoklu işlem gibi temel komut dosyası yazma görevleri için LLM’leri kullanıyor. bunun yanı sıra istihbarat toplama, uydu iletişim protokollerini araştırma ve radar görüntüleme teknolojilerinin yanı sıra muhtemelen Ukrayna’da devam eden savaşla ilgili.

Son zamanlarda iki Çin devlet aktörü ChatGPT yapıyor: Charcoal Typhoon (diğer adıyla Aquatic Panda, ControlX, RedHotel, BRONZE UNIVERSITY)ve Salmon Typhoon (diğer adıyla APT4, Maverick Panda).

İlki, hem uzlaşma öncesi kötü niyetli davranışlar, belirli teknolojiler, platformlar ve güvenlik açıkları hakkında bilgi toplamak, komut dosyaları oluşturmak ve geliştirmek ve çevrilmiş dillerde sosyal mühendislik metinleri oluşturmak, hem de uzlaşma sonrası, gelişmiş performans sergilemek için yapay zekadan iyi bir şekilde yararlanıyor. komutlar, daha derin sistem erişimi elde etme ve sistemlerde kontrol kazanma.

Salmon Typhoon öncelikli olarak yüksek profilli kişiler, istihbarat teşkilatları, iç ve uluslararası politikalar ve daha fazlası hakkında kamuya açık bilgileri sağlayan bir istihbarat aracı olarak Yüksek Lisans’lara odaklanmıştır. Ayrıca, kötü amaçlı kod geliştirmeye ve gizli taktikleri araştırmaya yardımcı olmak için OpenAI’yi kötüye kullanma girişiminde de büyük ölçüde başarısız oldu.

İran’ın Kızıl Kum Fırtınası (Kaplumbağa Kabuğu, Imperial Kitten, Sarı Liderc) OpenAI’yi, kimlik avı materyali (örneğin, uluslararası bir kalkınma ajansından veya feminist bir gruptan geliyormuş gibi görünen e-postalar) ve web kazıma, kullanıcılar bir uygulamada oturum açtığında görevleri yürütme işlemlerine yardımcı olacak kod parçacıkları geliştirmek için kullanıyor. ve benzeri.

Sonunda Kim Jong-Un var Zümrüt Karla karışık yağmur (Kimsuky, Kadife Chollima) diğer APT’ler gibi temel komut dosyası oluşturma görevleri, kimlik avı içeriği oluşturma ve güvenlik açıkları hakkında kamuya açık bilgilerin araştırılmasının yanı sıra savunma sorunları ve nükleer silah programıyla ilgilenen uzmanlar, düşünce kuruluşları ve hükümet kuruluşları için OpenAI’ye yöneliyor.

Yapay Zeka Oyunun Kurallarını Değiştirmiyor (Henüz)

Yapay zekanın bu kadar çok kötü niyetli kullanımı yararlı görünüyorsa, ancak bilim kurgu düzeyinde havalı görünmüyorsa, bunun bir nedeni var.

AppOmni’nin baş yapay zeka mühendisi ve güvenlik araştırmacısı Joseph Thacker, “Microsoft tarafından izlenebilecek kadar etkili olan tehdit aktörleri muhtemelen yazılım yazma konusunda zaten uzmandır” diye açıklıyor. “Üretken yapay zeka muhteşem, ancak çoğunlukla atılımlar gerçekleştirmek yerine insanların daha verimli olmasına yardımcı oluyor. Bu tehdit aktörlerinin, kötü amaçlı yazılım gibi) daha hızlı kod yazmak için LLM’leri kullandıklarına inanıyorum, ancak zaten kötü amaçlı yazılımlara sahip oldukları için gözle görülür derecede etkili değil. Hala varlar Daha verimli olmaları mümkün ama günün sonunda henüz yeni bir şey yapmıyorlar.”

Etkisini abartmamak konusunda dikkatli olmasına rağmen Thacker, yapay zekanın hâlâ saldırganlar için avantajlar sunduğu konusunda uyarıyor. “Kötü aktörler muhtemelen daha büyük ölçekte veya daha önce desteklemedikleri sistemlere kötü amaçlı yazılım dağıtabilecekler. Yüksek Lisans’lar kodu bir dilden veya mimariden diğerine çevirme konusunda oldukça iyiler. Yani kötü amaçlı kodlarını dönüştürdüklerini görebiliyorum daha önce yeterli olmadıkları yeni dillere yöneliyorlar” diyor.

Ayrıca, “Bir tehdit aktörü yeni bir kullanım durumu bulursa, bu hâlâ gizli olabilir ve bu şirketler tarafından henüz tespit edilmemiş olabilir, dolayısıyla bu imkansız değil. ‘Hack’leyebilen ve gerçek güvenlik açıklarını bulabilen tamamen özerk yapay zeka ajanları gördüm. Eğer herhangi bir kötü aktör benzer bir şey geliştirirse bu tehlikeli olur.”

Bu nedenlerden dolayı şunu ekliyor: “Şirketler tetikte kalabilir. Temelleri doğru yapmaya devam edin.”



siber-1