Koruma AI’daki araştırmacılar, Anthropic’in Claude yapay zeka (AI) modelini kullanarak Python kod tabanlarındaki sıfır gün güvenlik açıklarını bulabilen ücretsiz, açık kaynaklı bir statik kod analiz aracı olan Vulnhuntr’ı piyasaya sürdü.

Araç, GitHub’da mevcut, Kodun ayrıntılı analizini, belirlenen güvenlik açıklarına yönelik kavram kanıtlama açıklarını ve her kusur için güven derecelendirmelerini sağlar, AI’yi koruyun duyurusunda şunları söyledi.

Vulnhuntr, tüm dosyayı bir kerede yükleyerek büyük dil modelinin (LLM) bağlam penceresi boyutunu aşmak yerine kod tabanını daha küçük parçalara böler. Araç, son derece ayrıntılı, güvenlik açığına özel istemleri Claude’a beslemek için istem mühendisliği tekniklerini kullanıyor; bu noktada yapay zeka, uygulamayı kullanıcı girişinden sunucu çıkışına kadar eşleştirmek için yeterli bilgi toplayana kadar ek kod parçacıkları istiyor. Bu şekilde LLM, bir projedeki dosyalar, işlevler ve değişkenler arasındaki bağlantıları kapsayan çağrı zincirinin tamamını bağlamı kaybetmeden analiz edebilir. Bu düzeydeki analiz, yapay zekanın yalnızca riskli kod bulduğunda durmadığı, bunun yerine bu kodun projenin geri kalanıyla nasıl etkileşime girdiğini araştırdığı anlamına geliyor; araştırma ekibi bunun yanlış pozitif ve negatif sonuçların azaltılmasına yardımcı olduğunu söylüyor.

Araç şu anda uzaktan yararlanılabilecek aşağıdaki güvenlik açığı türlerine odaklanmaktadır: isteğe bağlı dosya üzerine yazma (AFO), yerel dosya ekleme (LFI), sunucu tarafı istek sahteciliği (SSRF), siteler arası komut dosyası çalıştırma (XSS), güvenli olmayan doğrudan nesne referanslar (IDOR), SQL enjeksiyonu (SQLi) ve uzaktan kod yürütme (RCE).

Vulnhuntr ekibi, aracın halihazırda GitHub’daki gpt_academic, FastChat ve Ragflow dahil olmak üzere popüler Python projelerinde bir düzineden fazla sıfır gün güvenlik açığını keşfettiğini söylüyor. Vulnhuntr, makine öğrenimi kitaplığı Ragflow’ta halihazırda düzeltilmiş olan bir RCE kusurunu işaretledi.



siber-1