ChatGPT’nin her yerde manşetlere çıkmasıyla, dünya bir Siyah ayna bölüm. Bazıları yapay zekanın en büyük siber güvenlik sorunlarımıza nihai çözüm olacağını savunurken, diğerleri bunun bir dizi yeni zorluk çıkaracağını söylüyor.

Ben ikincisinin tarafındayım. ChatGPT’nin harika bir teknoloji parçası olduğunu kabul etsem de, aynı zamanda bilgisayar korsanları için bir kolaylaştırıcıdır ve ulus-devlet yeteneklerini “senaryo çocukları”nın – diğer bir deyişle bilgisiz bilgisayar korsanlarının – yararına metalaştırmasıdır. Bu teknoloji, metin yazmaya ek olarak, bir bilgisayarın, insanların hemen yakalayamadığı ancak makinelerin görecek kadar hassas olduğu görüntülerin içindeki bilgileri araması için yönlendirilebildiği korkunç bir senaryonun önünü açıyor. Örnekler, parolaların camdaki yansımaları veya yapay zekanın yardımı olmadan fotoğraflarda görünmeyen fotoğraflarda görünen kişiler olabilir.

ChatGPT’nin benimsenmesi arttıkça, sektörün dikkatli bir şekilde ilerlemesi gerektiğine inanıyorum ve işte nedeni bu. Bilgisayar korsanlarının ChatGPT’yi şu amaçla kullanabileceği üç tür yetenek vardır: toplu kimlik avı, tersine mühendislik ve akıllı kötü amaçlı yazılım. Bunların her birine ayrıntılı olarak göz atalım.

Toplu Kimlik Avı

ChatGPT çok güçlü olduğu için, bir insan listesine el yapımı, kişiselleştirilmiş e-postalar oluşturmak için gereken süreyi birkaç günden sadece dakikalara indirebilir. ChatGPT, yalnızca bir düğmeyi tıklatarak çok özel soruları yanıtlayabilir ve bilgisini hem güvenlik hem de güvenlik dışı personel uzmanlarının kimliğine bürünmek için kullanabilir. ChatGPT ayrıca metni herhangi bir yazma stiline çevirebildiğinden veya çok yüksek düzeyde redaksiyon yapabildiğinden, çalışanların bir listesi ve ayrıntıları elde edildikten sonra, bir bilgisayar korsanının şansını artırmak için başka biri gibi davrandığı durumlarda toplu e-postalar oluşturmak kolaydır. başarılı bir saldırı

Kimlik avı, ister bir kuruluşun sunucularına erişim elde etmek ister insanları para transfer etmeye ikna etmeye çalışmak olsun, bilgisayar korsanlığı kuruluşlarının önemli bir parçasıdır. Bununla mücadele etmek için iş dünyasının liderleri, çalışanları ChatGPT’nin güvenlik üzerindeki etkileri ve potansiyel saldırıların nasıl tespit edileceği konusunda eğitmelidir. Bence çalışanlar metin konusunda özellikle eleştirel olmalı ve bir şeyin gerçek bir kaynaktan geldiğini asla varsaymamalı. Çalışanlar, herhangi birine körü körüne güvenmek yerine, bir e-postanın/kodun şirket sunucusundan gelip gelmediğine veya uygun imzayı içerip içermediğine yakından dikkat etmek gibi diğer mekanizmalara güvenmelidir. Çalışanlara en büyük tavsiyem, metnin stilinin yanı sıra başka doğrulama araçlarını da kullanmalarıdır.

Tersine mühendislik

ChatGPT, kodu ve hatta makine kodunu anlamada harikadır. ChatGPT, bir sistemin ikili kodunu veya gizlenmiş kodunu sağlayarak, kodun nasıl çalıştığını ve ne işe yaradığını, bilgisayar korsanlarının yazılımı manipüle etmelerini kolaylaştıracak ve şirketin sunucularına erişmelerini sağlayacak şekilde açıklayabilir.

Tersine mühendislik eskiden çok nadir ve oldukça kazançlı bir beceriydi; tarihsel olarak, yalnızca ulus-devletler onu operasyonlarına dahil edebilirdi. Bu artık en temel bilgisayar korsanları tarafından yapılabilecek bir şey.

Akıllı Kötü Amaçlı Yazılım

ChatGPT, kötü amaçlı yazılım için bir mini beyin işlevi görerek onu tamamen özerk hale getirebilir. Günümüzde gelişmiş kötü amaçlı yazılımlar, bilgisayar korsanının saldırıya uğramış ağı ve sunucuları gözlemlemek ve bilgilerin nasıl çıkarılacağına ilişkin komutlar göndermek için bir şirketin sunucuları arasında tünel açmasına olanak tanır. Bu işlem genellikle bir bilgisayar korsanının, saldırıya uğrayan şirketin ağında veya sunucularında bir yere kurmayı başardığı kötü amaçlı yazılıma bağlanmasını içerir.

Kötü amaçlı yazılım, ChatGPT ile otonom olarak kararlar alabilir, böylece ilginç verilerin nerede olduğunu, parolaların yerel olarak nerede depolanabileceğini ve hatta veri kaynaklarına nasıl bağlanılacağını ve verilerin otomatik olarak nasıl çıkarılacağını anlar. ChatGPT, bir insandan çok daha fazla veriyi inceleyebilir – hatta bazı durumlarda bunu daha iyi yapabilir – ChatGPT kullanan bir kötü amaçlı yazılım riskini, bilgisayar korsanlarının onu bağlamasına ve çalıştırmasına izin veren basit bir kötü amaçlı yazılıma kıyasla çok daha tehlikeli hale getirir. Tamamen özerk olduğu için – artık bir bilgisayar korsanının kötü amaçlı yazılımı kontrol etmesine ve onu manuel olarak doğru yere yönlendirmesine gerek yoktur – yalnızca daha tehlikeli değil, aynı zamanda daha yaygın olabilir. Bu, daha fazla şirketin özel olarak hedeflenmek yerine ara sıra saldırıya uğrama riskiyle karşı karşıya olduğu anlamına gelir.

Samsung’un ChatGPT kullanan ilk siber saldırılardan birinin kurbanı olduğunu zaten gördük ve kesinlikle bunu yapan son saldırı olmayacak. Bu, tüm sektörlerdeki şirketlerin tetikte olmaları ve çalışanlarını ChatGPT’nin siber güvenlik risklerini anlamaları için eğitmeleri gerektiğini hatırlatıyor – yalnızca kendileri kullandıklarında değil, başka biri de onlara karşı kullanıyor olabileceğinde. Zaman içinde, gizlilik ve güvenlik ekiplerinin kuruluşlarının ChatGPT’nin olumsuz sonuçlarına karşı savunmasız kalmamasını sağlayabilmesi için yatırım önceliklerinin değişmesini bekliyorum (ve teşvik ediyorum).



siber-1