hakkında tartışma alevlenirken BT yöneticileri ve CISO’lar üretken yapay zekayı ne kadar kullanmalıdır? — özellikle kodlama için — SailPoint CISO Rex Booth, özellikle endüstrinin doğru güvenlik kararları verme konusundaki yıldızlardan daha az geçmişi göz önüne alındığında, işletmelerin herhangi bir fayda elde etmesinin önünde çok çeşitli engeller görüyor.
Google’ın sahip olduğu zaten üretken yapay zekadan kamuya açık bir şekilde yararlanmaya karar verdi dahil olmak üzere çok çeşitli yapay zeka uzmanlarını korkutan bir hareket. Google’ın kendisinde üst düzey bir yapay zeka yöneticisi.
Bazıları, üretici yapay zekanın vaat ettiği aşırı verimliliklerin ek güvenlik (ve arka uçta işlevsellik kontrolleri) sağlayabileceğini öne sürse de, Booth endüstri tarihinin aksini söylediğini söylüyor.
Booth bir röportajda, “Tüm şirketlerin tasarruflarını geri dönüp arka uçtaki kusurları düzeltmek için kullanmalarına güvenebileceğimizi önermek delilik” dedi. “Piyasa, onlarca yıldır bunun gerçekleşmesi için herhangi bir teşvik sağlamadı – neden endüstrinin birdenbire kaliteyi kâra tercih etmeye başlayacağını düşünelim? Tüm siber endüstri var çünkü güvenlik konusunda gerçekten kötü bir iş çıkardık. Sonunda, güvenliği temel işlevsel bir bileşen olarak kabul etmek için geliştirici topluluğuyla çekişme sağlıyoruz. Verimliliğin cazibesinin bizi ekosistemin temelini geliştirmekten alıkoymasına izin veremeyiz.
“Elbette, AI kullanın, ancak taahhüt ettiğiniz her bir kod satırının kalitesi için sorumluluktan vazgeçmeyin” dedi. “’Hey, çıktı kusurlu olabilir, ancak onu uygun bir fiyata alıyorsunuz’ önermesi gülünç. Daha yüksek hacimli berbat, güvensiz bir yazılıma ihtiyacımız yok. Daha kaliteli yazılımlara ihtiyacımız var.
“Geliştirici topluluğu, AI’yı bir verimlilik olarak kullanacaksa, onlar için iyi. Kod yazarken kesinlikle yapardım. Ama bunun akıllıca yapılması gerekiyor.”
Bir tartışılan seçenek yapay zeka tarafından deneyimli kodlayıcılardan daha verimli bir şekilde değiştirilebilen genç programcıların, yalnızca yapay zeka tarafından üretilen kodlama sorunlarını çözmekle kalmayıp diğer güvenlik görevlerini de yerine getirebilen siber güvenlik uzmanları olarak yeniden eğitildiğini görecekti. Teorik olarak bu, siber güvenlik yeteneği eksikliğini gidermeye yardımcı olabilir.
Ancak Booth, üretici yapay zekanın tam tersi bir etkiye sahip olduğunu düşünüyor. “Yapay zekanın, arka ucu temizlemek için güvenlik işe alımında bir patlamaya yol açabileceğinden ve halihazırda sahip olduğumuz işgücü eksikliklerini daha da kötüleştirebileceğinden” endişeleniyor.
Oh, üretken yapay zeka, adınız ister ChatGPT, BingChat, Google Bard veya başka bir şey olsun, kullanımınızın BT kabuslarını daha da kötüleştirme yollarının sonu yok mu?
Booth’un siber güvenlik yetenek kıtlığı hakkındaki argümanı mantıklı. Az ya da çok, işe alınabilecek sınırlı sayıda eğitimli siber güvenlik personeli vardır. İşletmeler bu eksiklikle onlara daha fazla para ödeyerek mücadele etmeye çalışırsa – pek olası olmayan ancak olası bir senaryo – bu, bir şirketteki güvenlik durumunu diğerinin pahasına iyileştirecektir. Booth, “Sürekli olarak insanları değiş tokuş yapıyoruz” dedi.
Büyük dil modellerinin artan kullanımının en olası kısa vadeli sonucu, bunun kodlayıcıları güvenlik görevlilerinden çok daha fazla etkileyeceğidir. Booth, “ChatGPT’nin giriş seviyesi geliştirici pozisyonlarının sayısında keskin bir düşüşe yol açacağından eminim” dedi. “Bunun yerine, daha geniş bir insan yelpazesinin geliştirme sürecine girmesini sağlayacak.”
Bu, iş kolu (LOB) yöneticilerinin ve yöneticilerinin üretken yapay zekayı doğrudan kodlamak için kullanma potansiyeline bir referanstır ve bir kodlayıcının aracı olarak hareket etme ihtiyacını ortadan kaldırır. Anahtar soru: Bu iyi bir şey mi yoksa kötü mü?
“İyi bir şey” argümanı, şirketlere para kazandıracak ve LOB’lerin uygulamaları daha hızlı kodlamasına izin verecek olmasıdır. Bu kesinlikle doğru. “Kötü şey” argümanı, LOB çalışanlarının güvenlik hakkında en genç programcıdan bile daha az bilgi sahibi olmasının yanı sıra asıl endişelerinin hız olmasıdır. Bu LOB çalışanları güvenlik kontrolleri ve onarımları yapmaya zahmet edecek mi? (Bu sorunun cevabını hepimiz biliyoruz ama sormak zorundayım.)
Booth’un görüşü: C-suite yöneticileri, üretici yapay zeka yoluyla sınırlama olmaksızın geliştirmeye izin verirse, siber güvenliğin çok ötesine geçen sorunlar artacaktır.
LOB’ler “normal geliştirme sürecini tamamen atlatmak için yapay zekanın harikaları aracılığıyla kendilerini güçlendirilmiş bulacaklar” dedi. “Kurumsal politika buna izin vermemeli. Geliştiriciler etki alanında eğitilir. Geliştirme sürecinde işleri yapmanın doğru yolunu bilirler. Kuruluşun geri kalanıyla entegrasyon da dahil olmak üzere uygun dağıtımı bilirler. Bu gider yol ötesinde, ‘Hey, bazı kodları tokatlayabilirim.’ Daha hızlı yapabiliyor olmamız, tüm bahislerin iptal olduğu ve birdenbire vahşi batıya dönüştüğü anlamına gelmiyor.”
Aslında, birçok kurumsal CISO ve işletme yöneticisi için bunun anlamı tam olarak budur.
Bu bizi, yapay zeka halüsinasyonlarının en kötü şekilde gerçekleşmesi olan üretken yapay zekanın yalan söyleme yolundan çekilmesi gibi hassas bir konuya geri dönmeye zorluyor. Bazıları bunun yeni bir şey olmadığını ve insan kodlayıcıların nesillerdir buna benzer hatalar yaptığını söyledi. Kesinlikle katılmıyorum.
Buradaki hatalardan veya bir gerçeği bilmeyen yapay zeka sisteminden bahsetmiyoruz. Kodlayıcıların ne yaptığını düşünün. Evet, en iyi kodlayıcılar bile zaman zaman hata yapar ve diğerleri özensizdir ve çok daha fazla hata yapar. Ancak bir insan kodlayıcı için tipik olan şey, sayının 100.000 olması gerekirken 10.000 girecek olmalarıdır. Veya bir talimatı kapatmayacaklar. Bunlar kötü şeyler ama kötü niyet yok. Bu sadece bir hata.
Bu aksilikleri AI oluşturmanın bugün yaptığı şeye eşdeğer hale getirmek için, bir kodlayıcının tamamen yeni talimatlar icat etmesi ve mevcut talimatları saçma sapan bir şeye dönüştürmesi gerekir. Bu bir hata veya dikkatsizlik değil, kasten yalan söylemektir. Daha da kötüsü, yalan söylemekten başka görünür bir sebep yok. Kodlayıcının inanılmaz derecede iyi bir açıklaması olmadıkça, bu kesinlikle bir kovma suçu olacaktır.
Ya kodlayıcının patronu bu yalanı kabul edip “Evet. kodlayıcı açıkça yalan söyledi. Neden yaptıkları hakkında hiçbir fikrim yok ve hatalarını kabul ediyorlar ama bir daha yapmayacağım demiyorlar. Doğrusu benim değerlendirmem kesinlikle tekrar tekrar yapacakları yönünde. Ve bunu neden yaptıklarını anlayana kadar onları durduramayız. Ve yine, bunu neden yaptıklarına dair hiçbir fikrimiz yok ve bunu yakın zamanda çözmemiz için hiçbir neden yok.”
O kodlayıcıyı (ve belki yöneticiyi de) kovacağınızdan şüpheniz var mı? Ve yine de, üretken yapay zekanın yaptığı tam olarak budur. Şaşırtıcı bir şekilde, AI araçları hızlı ve verimli bir şekilde kodlamaya devam ettiği sürece, üst düzey kurumsal yöneticiler bu konuda sorun yaşamıyor gibi görünüyor.
Bu sadece kodunuza güvenme meselesi değil, kodlayıcınıza güvenme meselesidir. Ya size bu sütundaki alıntılardan birinin tamamen benim uydurduğum bir şey olduğunu söyleseydim? (Hiçbiri değildi, ama benimle birlikte izleyin.) Hangi alıntının gerçek olmadığını söyleyebilir misiniz? Yerinde kontrol yardımcı olmaz; ilk 10 yorum mükemmel olabilir ama sonraki yorum olmayabilir.
Bunu bir an düşünün, sonra bana ChatGPT tarafından oluşturulan koda gerçekten ne kadar güvenebileceğinizi söyleyin.
Bu gönderideki alıntıların meşru olduğunu bilmenin tek yolu, alıntıyı yapan köşe yazarına – bana güvenmektir. Eğer yapamıyorsan, kelimelere nasıl güvenebilirsin? Üretken yapay zeka, sebepsiz yere bir şeyler üreteceğini defalarca göstermiştir. Stratejik kararlarınızı alırken bunu göz önünde bulundurun.
Telif hakkı © 2023 IDG Communications, Inc.