Yapay zeka (AI) yeteneklerini ve makine öğrenimi (ML) modelleriyle çalışmayı kolaylaştıran araçları içeren artan sayıda uygulama, güvenlik ekiplerinin artık yazılımların oluşturduğu riskleri değerlendirmesi ve yönetmesi gereken kuruluşlar için yeni yazılım tedarik zinciri baş ağrıları yarattı. bu yapay zeka bileşenleri. Güvenlik ekipleri yazılım tedarik zincirine bakıyor ve açık kaynak bileşenleri hakkında düşünüyor, ancak makine öğreniminin bunun bir parçası olduğunu kabul etmeleri ve kuruluşun güvenlik kontrollerini ve veri yönetimi politikalarını yapay zekanın zaten mevcut olduğu gerçeğini yansıtacak şekilde ayarlamaları gerekiyor.

Berryville Makine Öğrenimi Enstitüsü’nün kurucu ortağı Gary McGraw, kuruluşlarda yapay zekanın artan kullanımıyla ilgili en büyük zorluklardan birinin aslında kurumsal savunucuların yıllardır uğraştığı gölge BT sorununun aynısı olduğunu söylüyor. Gölge ML ve gölge yapay zeka, birçok kuruluşta, iş grubunda ve bireysel çalışanların, iş süreçlerinin bir parçası olarak makine öğrenimi uygulamalarını ve yapay zeka araçlarını seçen ve benimseyen kişiler olması nedeniyle mevcuttur. Güvenlik ekipleri genellikle bu araçlar kuruluşa getirildiğinde bilgilendirilmez ve görünürlüğün olmaması, onları yönetememeleri veya kullanılan verileri koruyamamaları anlamına gelir.

Legit Security’nin danışma kurulu üyesi olan McGraw, AI kullanımına ilişkin sorunun büyük bir Fortune 100 şirketi ve uygulama güvenliği girişimi Legit Security’nin yöneticileriyle yakın zamanda yapılan bir toplantıda gündeme geldiğini söylüyor. Legit Security’nin geliştirmeden teslimata kadar tüm yazılım geliştirme yaşam döngüsünü haritalandıran platformu, kullanılan her araç ve uygulamada görünürlüğe sahiptir.

McGraw, “CISO, ‘Politika gereği makine öğrenimine izin vermiyoruz. Kimse bunu kullanmıyor’ dedi” diyor ve ekip, kullanımdaki birden fazla makine öğrenimi ve yapay zeka örneğini göstermek için platformu kullanabildi.

Makine öğrenimi ve yapay zekanın ne olduğunu bilmemek giderek artan bir endişe kaynağı ve yalnızca bu şirketle sınırlı değil. İçinde son Dark Reading araştırma anketiAnkete katılanların %74’ü, araçlar resmi olarak yetkilendirilmemiş olsa bile çalışanların ChatGPT gibi kamuya açık üretken yapay zeka (GenAI) araçlarını iş amacıyla kullandığına inandıklarını söyledi. Ankete katılanların yaklaşık beşte biri (%18), yapay zekayla ilgili en önemli beş endişesinden birinin, çalışanların halka açık GenAI araçlarını kullanmasını engelleyememeleri olduğunu söyledi.

Yapay Zeka Nasıl Bulunur?

Legit Security’nin kurucu ortağı ve CTO’su Liav Caspi, Legit Security’nin, kod oluşturmak için yapay zekayı kullanmak veya büyük dil modellerini (LLM’ler) ürünlere yerleştirmek gibi GenAI teknolojilerinin yazılım geliştirmeyi nasıl değiştirdiğini incelediğini söylüyor. Kuruluşun yazılımı nasıl geliştirip sunduğuna ilişkin platform haritalamanın yan ürünü, kullanılan tüm açık kaynak ve kapalı kaynak yazılım bileşenlerinin, oluşturma araçlarının, çerçevelerin, eklentilerin ve hatta geliştiricilerin kullandığı sunucuların “çok ayrıntılı bir envanteridir”. Caspi, kullandığını söylüyor. Yeni teknoloji, kuruluşun teknoloji yığınına her zaman yukarıdan aşağıya bir şekilde dahil edilmediğinden, bu varlık kataloğu genellikle yöneticilerin kullanılan tüm yazılım bileşenleri ve geliştirici araçları hakkında ilk kez bilgi edindiği zamandır.

McGraw, “İnsanların durum hakkında düşündükleriyle gerçekte olanın bazen örtüşmediği ortaya çıkıyor” diyor. “CISO’ya veya yazılım güvenliğini yöneten kişiye ‘Hey, bunlardan altı tane olduğunu biliyor muydunuz?’ ve ‘Sadece iki kişi olduğumuzu sanıyordum’ diyorlar. [there’s a problem.]”

Legit Security, kuruluşun kaç tane hata takip sistemi çalıştırdığı, kaç GitHub örneğinin kurulduğu, kaç tane JIRA örneğinin bulunduğu veya hangi geliştiricilerin hangi derleyicileri kullandığı gibi soruların yanı sıra geliştiricilerin nerede olduğu gibi soruları da yanıtlıyor. LLM’leri kullanıyor, hangi uygulamaların hangi AI hizmetine bağlandığını, bu hizmetlere hangi verilerin gönderildiğini ve gerçekte hangi modellerin kullanıldığını. Caspi, diğer hizmetlere herhangi bir verinin gönderilip gönderilmediği sorusunun düzenlemeye tabi sektörlerdeki kuruluşlar için özellikle önemli olduğunu söylüyor.

“[We] Büyük kuruluşların bilmediği şeyleri keşfettik, sanki belirli bir kütüphaneyi kullandıklarını bilmiyorlardı. Caspi, kodu yurtdışındaki bir hesaba kopyalayan geliştiricilerin bulunduğunu bilmiyorlardı” diyor.

Caspi, bir başka endişe konusunun da kuruluşun yapay zeka tarafından oluşturulan herhangi bir koda güvenip güvenmediği olduğunu, bunun geliştiricilerin kod yazmasına yardımcı olan çeşitli araçların ve yardımcı pilotların kullanıma sunulmasıyla daha alakalı hale geldiğini söylüyor Caspi. Dark Reading anketinde yanıt verenlerin %28’i yapay zeka tarafından oluşturulan koddaki olası güvenlik açıklarına ilişkin endişelerini dile getirdi.

Şu anda platform, yapay zekanın dokunduğu tüm parçaları belirlemek için geliştirme altyapısını tarıyor. Depoları inceler ve uygulamalara gömülü LLM’leri, kod oluşturma araçlarının kullanılıp kullanılmadığını, hangi yazılım kitaplıklarının eklendiğini, hangi API çağrılarının yapıldığını ve ne tür lisansların kullanıldığını tespit eder. Örneğin, huggingface, makine öğrenimi modellerini oluşturmak ve birleştirmek için yazılım geliştirme projelerinde yaygın olarak kullanılmaktadır. Caspi, güvenlik ekiplerinin sürüm numaralarının yanı sıra modellerin nasıl uygulandığını da düşünmesi gerektiğini söylüyor.

ML’nin Güvenliği Nasıl Sağlanır?

Makine öğrenimini uygun şekilde güvence altına almak için kuruluşun üç şeyi yapabilmesi gerekir: makine öğreniminin nerede kullanıldığını bulmak, bulunana göre riski modellemek ve bu riskleri yönetmek için kontroller koymak.

“Makine öğrenimini bulmamız gerekiyor [and] Bulduğunuz şeye göre bir tehdit modeli yapın” diyor McGraw. “Bazı şeyler buldunuz ve şimdi tehdit modelinizin ayarlanması gerekiyor. Tehdit modelinizi oluşturduktan ve bazı riskleri ve tehditleri belirledikten sonra, tüm bu sorunlara yönelik bazı kontroller uygulamanız gerekir.”

Caspi, güvenlik ekibinin ne kullanıldığını öğrendikten sonra bileşeni bloke edebileceğini veya geliştirme sürecine güvenlik kontrolleri veya “korkuluklar” eklemek için uygun bir politika belirleyebileceğini belirtiyor. Örneğin, kod tabanına sorunların getirilmediğinden emin olmak için bir uygulamanın, birisi otomatik olarak oluşturulan kodu incelemeden üretime geçmesi mümkündür. Kod bloğu aslında herhangi bir güvenlik açığı içermeyebilir, ancak güvenlik ekipleri, otomatik olarak oluşturulan kodun kod tabanıyla birleştirilmeden önce iki kişi tarafından incelenmesini gerektiren bir politika oluşturabilir, diyor.

Caspi, “Bir korkuluğun eksik olduğunu size söyleyecek çok sayıda tespitimiz var” diyor. Caspi, güvenlik ekibinin “bulduklarımız hakkında mümkün olduğunca fazla bilgi aldığını”, böylece bu bilgileri bir tür önlem almak için kullanabileceklerini söylüyor. Bazı durumlarda, en iyi eylem planı veya en iyi uygulamalar konusunda bazı rehberlikler olacaktır.

Bu üç şeyin hepsini birden gerçekleştirebilecek tek bir araç veya platform yok, ancak McGraw her alana karşılık gelen üç şirketin danışma kurullarında yer alıyor. Legit Security her şeyi bulur, IriusRisk tehdit modellemeye yardımcı olur ve Calypso AI kontrolleri uygulamaya koyar.

McGraw, “Tüm parçaların hareket ettiğini görebiliyorum” diyor. “Bütün parçalar bir araya geliyor.”



siber-1