Stanford’a bağlı bir grup araştırmacı tarafından yapılan yeni araştırma, Github Copilot gibi kod üreten yapay zeka araçlarının birçok kullanıcının fark edebileceğinden daha fazla güvenlik riski sunabileceğini ortaya çıkardı.
Çalışma, özellikle Elon Musk’ın kurucu ortakları arasında yer aldığı OpenAI’nin bir ürünü olan Codex’i inceledi.
Codex, doğal dili koda çevirerek ve bağlamsal kanıtlara dayalı değişiklikler önererek kodlamayı daha kolay ve daha erişilebilir hale getirmek için tasarlanan Microsoft’un sahip olduğu GitHub Copilot platformuna güç veriyor.
AI kodlama sorunları
Çalışmanın baş yazarlarından Neil Perry, “kod üreten sistemlerin şu anda insan geliştiricilerin yerini almadığını” açıklıyor.
Çalışma, farklı becerilere sahip 47 geliştiriciden Python, JavaScript ve C programlama dillerini kullanarak güvenlikle ilgili sorunlar için Codex’i kullanmalarını istedi. Codex’e güvenen katılımcıların, kontrol grubuyla karşılaştırıldığında güvenli olmayan kod yazma olasılıklarının daha yüksek olduğu sonucuna varıldı.
Perry şöyle açıkladı: “Geliştiriciler [coding tools] kendi uzmanlık alanları dışındaki görevleri tamamlama endişesi taşımalı ve bunları zaten yetenekli oldukları görevleri hızlandırmak için kullananlar, çıktıları ve genel projede kullanıldıkları bağlamı dikkatlice iki kez kontrol etmelidir.”
Yapay zeka destekli kodlama araçları ilk kez incelemeye alınmıyor. Aslında, GitHub’ın Copilot’ta kod kalitesini artırmaya yönelik çözümlerinden biri, Microsoft’a ait şirketin diğer geliştiricilerin çalışmalarını ilişkilendirmediği için yasal işlemle karşı karşıya kalmasına neden oldu. Sonuç, 3,6 milyon bireysel Bölüm 1202 ihlali için 9 milyar dolarlık bir dava oldu.
Şimdilik, yapay zeka destekli kod oluşturma araçları, topyekun bir değişimden ziyade programlamayı hızlandırabilecek bir yardım eli olarak görülüyor, ancak son birkaç yıldaki gelişme devam ederse, yakında yerini alabilirler geleneksel kodlama
Yolu ile TechCrunch (yeni sekmede açılır)