Microsoft, üretken yapay zekayı tüm ürünlerine eklemeye yönelik devam eden arayışının bir parçası olarak bugün Güvenlik Yardımcı Pilotutehdit istihbaratını “özetlemeyi” ve “anlamlandırmayı” amaçlayan yeni bir araç.
Ayrıntılara ışık tutan bir duyuruda Microsoft, güvenlik olaylarına öncelik verirken saldırılarla ilgili verileri ilişkilendirmenin bir yolu olarak Security Copilot’u önerdi. Sayısız araç zaten bunu yapıyor. Ancak Microsoft, mevcut güvenlik ürün portföyüyle bütünleşen Security Copilot’un, OpenAI’nin üretken AI modelleri, özellikle de yakın zamanda piyasaya sürülen metin üreten GPT-4 tarafından daha iyi hale getirildiğini savunuyor.
Microsoft Güvenlik başkan yardımcısı Charlie Bell yaptığı açıklamada, “Güvenlik durumunu ilerletmek hem insan hem de teknoloji gerektirir – insan uzmanlığının hız ve ölçekte uygulanmasına yardımcı olan en gelişmiş araçlarla birlikte insan zekası” dedi. “Security Copilot ile, her savunucunun dünyayı daha güvenli bir yer haline getirmek için gerekli araçlar ve teknolojilerle güçlendirildiği bir gelecek inşa ediyoruz.”
Microsoft, yeterince garip bir şekilde, Security Copilot’un GPT-4’ü nasıl içerdiğini tam olarak açıklamadı. Bunun yerine, “giderek artan güvenliğe özgü beceriler içeren” ve siber güvenlikle ilgili “becerileri ve sorguları dağıtan” Güvenlik Yardımcı Pilotunu güçlendiren, eğitimli bir özel modeli – belki de GPT-4 tabanlı – vurguladı.
Microsoft, dil modeline dayalı hizmetlere yönelik yaygın bir eleştiriyi ele alarak, modelin müşteri verileri üzerinde eğitilmediğini vurguladı.
Microsoft, bu özel modelin güvenlikle ilgili soruları yanıtlayarak, en iyi eylem planı hakkında tavsiyelerde bulunarak ve olayları ve süreçleri özetleyerek “diğer yaklaşımların gözden kaçırabileceği şeyleri yakalamaya” yardımcı olduğunu iddia ediyor. Ancak metin üreten modellerin gerçek olmayan eğilimleri göz önüne alındığında, böyle bir modelin üretimde ne kadar etkili olabileceği açık değil.
Microsoft, özel Security Copilot modelinin her zaman her şeyi doğru yapmadığını kabul ediyor. Şirket, “Yapay zeka tarafından oluşturulan içerik hatalar içerebilir” diye yazıyor. “Bu etkileşimlerden öğrenmeye devam ettikçe, daha tutarlı, ilgili ve yararlı yanıtlar oluşturmak için yanıtlarını ayarlıyoruz.”
Umarım, bu hatalar kötü bir güvenlik sorununu daha da kötüleştirmez.