Yapay zekanın değerinden daha fazla sorun yarattığına dair bir işaret varsa, OpenAI tamamı ChatGPT aracılığıyla oluşturulan yirmiden fazla siber saldırının gerçekleştiğini doğruluyor. Rapor, üretken yapay zekanın hedef odaklı kimlik avı saldırıları gerçekleştirmek, kötü amaçlı yazılımlarda hata ayıklamak ve geliştirmek ve diğer kötü amaçlı etkinlikleri yürütmek için kullanıldığını doğruluyor.
Rapor, üretken yapay zeka ChatGPT’yi kullanan iki siber saldırıyı doğruluyor. Cisco Talos, Asya hükümetlerini hedef alan Çinli tehdit aktörleri tarafından kullanılan ilk saldırıyı Kasım 2024’te bildirdi. Bu saldırıda ‘SweetSpecter’ adı verilen ve indirilip açıldığında kullanıcının sisteminde bir enfeksiyon zinciri oluşturacak kötü amaçlı bir dosya içeren bir ZIP dosyası içeren bir hedef odaklı kimlik avı yöntemi kullanıldı. OpenAI, SweetSpecter’ın, bir LLM aracı kullanarak komut dosyaları geliştirmek ve güvenlik açıklarını keşfetmek için ChatGPT’yi kullanan birden fazla hesap kullanılarak oluşturulduğunu keşfetti.
İkinci yapay zeka destekli siber saldırı, ChatGPT’yi kullanarak güvenlik açıklarından yararlanan ve macOS tabanlı bilgisayarlardan kullanıcı şifrelerini çalan ‘CyberAv3ngers’ adlı İran merkezli bir gruptan geldi. İran merkezli başka bir grup olan Storm-0817 tarafından gerçekleştirilen üçüncü saldırıda, Android için kötü amaçlı yazılım geliştirmek amacıyla ChatGPT kullanıldı. Kötü amaçlı yazılım kişi listelerini çaldı, arama kayıtlarını ve tarayıcı geçmişini çıkardı, cihazın kesin konumunu elde etti ve virüslü cihazlardaki dosyalara erişti.
Tüm bu saldırılar, kötü amaçlı yazılım geliştirmek için mevcut yöntemleri kullandı ve rapora göre, ChatGPT’nin büyük ölçüde yeni kötü amaçlı yazılım oluşturduğuna dair hiçbir gösterge bulunmuyor. Ne olursa olsun, tehdit aktörlerinin üretken yapay zeka hizmetlerini kötü amaçlı saldırı araçları oluşturmaları için kandırmasının ne kadar kolay olduğunu gösteriyor. Yeni bir solucan kutusu açıyor ve gerekli bilgiye sahip herkesin ChatGPT’yi kötü niyetli bir şey yapmak üzere tetiklemesinin daha kolay olduğunu gösteriyor. Bu tür potansiyel istismarları keşfeden ve bunları yamalayan güvenlik araştırmacıları olsa da, bunun gibi saldırılar, üretken yapay zeka üzerindeki uygulama sınırlamalarını tartışma ihtiyacını doğuracaktır.
Şu an itibariyle OpenAI, bu tür yöntemlerin kullanılmasını önlemek için yapay zekasını geliştirmeye devam edeceği sonucuna varıyor. Bu arada dahili emniyet ve güvenlik ekipleriyle birlikte çalışacak. Şirket ayrıca böyle bir durumun yaşanmasını önlemek için bulgularını sektördeki meslektaşlarıyla ve araştırma topluluğuyla paylaşmaya devam edeceğini söyledi.
Her ne kadar bu OpenAI’de gerçekleşse de, kendi üretken yapay zeka platformlarına sahip büyük oyuncuların bu tür saldırıları önlemek için koruma kullanmaması ters etki yaratacaktır. Ancak bu tür saldırıları önlemenin zor olduğunu bilen ilgili yapay zeka şirketleri, sorunları çözmek yerine önlemek için önlemlere ihtiyaç duyuyor.