GPT-4 bulut sunucularından oluşan ekipler, kusurun niteliğine ilişkin herhangi bir açıklama yapılmaksızın, sıfırıncı gün güvenlik açıklarını özerk bir şekilde belirlemek ve bunlardan yararlanmak için birlikte çalışabilir. Uzman LLM’lerden oluşan bir kadroya komuta eden bir planlama temsilcisinin yer aldığı bu yeni gelişme, insan uzmanlardan veya özel yazılımlardan daha hızlı ve daha akıllı çalışıyor.

Illinois Urbana-Champaign Üniversitesi’ndeki (UIUC) araştırmacılar, yapay zekanın güvenlik açıklarını hackleme yeteneğini aylardır inceliyorlar ve ilk olarak ChatGPT’nin güvenlik açığının doğasına ilişkin açıklamalar sağlandığında güvenlik kusurlarını ihlal etme konusundaki benzersiz yeteneği hakkında yayınladılar. O zamandan bu yana atılan yeni çığır, üniversitenin HPTSA (Hiyerarşik Planlama ve Göreve Özel Aracılar) sistemi üzerinde yapılan yeniliklerdir; bu sistem, GPT-4 modelinin ekipler halinde çalışmasına ve iki kat daha etkili olmasına olanak tanımıştır.

Richard Fang, Rohan Bindu, Akul Gupta, Qiusi Zhan ve Daniel Kang'ın çalışmasından bir grafik

Richard Fang, Rohan Bindu, Akul Gupta, Qiusi Zhan ve Daniel Kang’ın orijinal UIUC çalışmasından HPTSA’yı özetleyen diyagram. (İmaj kredisi: Richard Fang, Rohan Bindu, Akul Gupta, Qiusi Zhan, Daniel Kang)

Ana hatlarıyla belirtildiği gibi Haziran çalışması ve araştırmacı Daniel Kang’ın kendisi Blog yazısıHPTSA, sorunları daha yüksek başarı oranlarıyla çözmek için bir dizi Yüksek Lisans eğitimi kullanır. Kang, bu sisteme olan ihtiyacı şöyle açıklıyor: “Tek yapay zeka aracıları inanılmaz derecede güçlü olmasına rağmen, mevcut Yüksek Lisans yetenekleriyle sınırlıdırlar. Örneğin, bir yapay zeka aracısı bir yola girerse (örneğin, bir XSS’den yararlanmaya kalkışırsa), bu durum zordur. Aracının geri adım atması ve başka bir güvenlik açığından yararlanmaya çalışması.” Kang şöyle devam ediyor: “Ayrıca, Yüksek Lisanslar tek bir göreve odaklandıklarında en iyi performansı gösteriyor.”



genel-21