Elbette daha hızlı, ancak üretken yapay zeka (GenAI), tıpkı bir insan geliştiricinin öğreneceği gibi kodlamayı öğreniyor ve bu da yol boyunca hataların yakalanması anlamına geliyor.

Veracode’un CTO’su ve kurucu ortağı Chris Wysopal, bu yıl Black Hat USA 2024’teki Dark Reading Haber Masasında, GenAI ve büyük dil modelleri (LLM’ler), kendileri de kusurlu olan açık kaynak modellerine dayanarak nasıl kod yazılacağını öğrendiğini açıkladı.

“[GenAI] çok daha fazla kodu çok daha hızlı bir şekilde yazabiliyoruz” dedi. “Yani sonuçta elde ettiğiniz şey daha fazla kod ve birim zaman başına daha fazla güvenlik açığı oluyor.”

İşin püf noktası daha sonra güvenlik açıklarını aynı hızda bulup düzeltmektir.

Konferansta sunduğu araştırmasında, “HAL’den HALT’a: GenAI Kodlama Çağında Skynet’in Kardeşlerini Engellemek” (kendisi de bir Yüksek Lisans tarafından yazılmış bir başlık), Wysopal ileriye dönük en iyi yolun kullanmayı öneriyor Güvenlik açıklarını bulmak ve düzeltmek için yapay zeka AI tarafından oluşturulan yazılım kodunda. Ama henüz orada değiliz.

Araştırmalara göre en iyi kod yazabilen mevcut model, LLM StarCoder’ı aradı. Bu, tamamen güvenlik açıklarından arınmış bir kod yazdığı anlamına gelmez, ancak yapılabilecek en iyi şey budur. ChatGPT 4.0 ve ChatGPT 2.5’in de güvenli kod yazma konusunda oldukça yetenekli olduğu görüldü.

Wysopal, “Genel amaçlı bir Yüksek Lisans bazı güvenlik hatalarını düzeltebilir, ancak görünen o ki bu konuda pek de iyi değil” diyor. “Ve böylece yalnızca kodu güvence altına almak için eğitilmiş uzmanlaşmış LLM’ler görüyoruz.”

Wysopal ve Veracode’daki ekibinin, diğer şirketlerin yanı sıra bu konu üzerinde çalıştığını da sözlerine ekledi.



siber-1