Zenity’nin kurucu ortağı ve CTO’su güvenlik araştırmacısı Michael Bargoury, Las Vegas’taki Black Hat konferansında Microsoft’un Copilot yapay zekasının kuruluşların hassas verilerini açığa çıkarmak ve güçlü kimlik avı saldırıları başlatmak için nasıl kullanılabileceğini gösterdi.

Copilot AI, özellikle Copilot Studio, ticari kuruluşların şirket verilerine erişim sağlayarak sohbet robotlarını ihtiyaçlarına göre uyarlamalarına olanak tanıyor. Ancak Bargouri’nin gösterdiği gibi, bu sohbet robotlarının çoğu varsayılan olarak çevrimiçi bulunuyor ve bu da onları bilgisayar korsanları için kolay hedef haline getiriyor. Araştırmacıya göre internette bu türden on binlerce bot bulundu.

Bargouri, bir saldırganın, kuruluşun hesabına bile erişmeden, e-postalar ve banka işlemleri de dahil olmak üzere hassas verileri ifşa etmeye Copilot’u nasıl zorlayabileceğini gösterdi. Bir videoda, bir chatbot’un, hedef çalışanın açmasına bile gerek olmayan kötü amaçlı bir e-posta göndererek banka havalesinin alıcısını nasıl değiştirebileceğini gösterdi.


Kaynak: DALL-E

Bir bilgisayar korsanının güvenliği ihlal edilmiş bir çalışan hesabına erişimi varsa, daha da fazla hasara neden olabilir. Bargouri, bir meslektaşının e-postasını nasıl alacağını, onunla yaptığın son görüşmeyi nasıl öğreneceğini ve sohbet robotunun o sohbette kayıtlı kişilerin e-postalarını geri getirmesini nasıl sağlayacağını gösterdi. Daha sonra bota, saldırıya uğrayan çalışanın stilinde bir meslektaşına göndermek üzere bir e-posta oluşturması talimatını verir ve bottan son e-postalarının tam konusunu çıkarmasını ister. Sadece birkaç dakika içinde, ağdaki herkese kötü amaçlı bir eklenti gönderebilecek ikna edici bir e-posta oluşturdu.

Bir saldırganın Copilot’un güvenlik bariyerlerini aşmasının özellikle sinsi bir yolu, dolaylı olarak ipuçları enjekte etmektir. Bu durumda bilgisayar korsanı, sohbet robotunu harici bir kaynaktan gelen kötü amaçlı verilerle zehirleyerek, örneğin ipucu içeren bir web sitesini ziyaret etmesini isteyerek yasaklanmış şeyleri yapmaya zorlayabilir.

“Burada temel bir sorun var. Yapay zekâya verilere erişim izni verdiğinizde, bu veriler saldırıların hedefi haline gelir. Bir bakıma komik; eğer kullanışlı bir botunuz varsa, savunmasızdır. Eğer savunmasız değilse işe yaramaz” dedi Barghouri.

Bu güvenlik açıkları, ChatGPT de dahil olmak üzere, ifşa edilebilecek hassas bilgiler içeren veri kümelerinden yararlanan yapay zeka sohbet robotlarından gelen diğer tehdit raporlarına ekleniyor.

Microsoft, Barghouri’nin çalışmasının sonuçları hakkında henüz yorum yapmadı. Ancak keşfedilen güvenlik açıklarının ciddiyeti göz önüne alındığında şirketin yakın gelecekte bunları düzeltmek için önlemler alması muhtemel.



genel-22