Hugging Face AI platformundaki iki kritik güvenlik açığı, müşteri verilerine ve modellerine erişmek ve bunları değiştirmek isteyen saldırganlara kapıyı açtı.

Güvenlik zayıflıklarından biri, saldırganlara Hugging Face platformundaki diğer müşterilere ait makine öğrenimi (ML) modellerine erişme olanağı verirken, ikincisi ise paylaşılan konteyner kayıt defterindeki tüm görüntülerin üzerine yazmalarına olanak tanıdı. Wiz’deki araştırmacılar tarafından keşfedilen her iki kusur da, saldırganların Hugging Face’in çıkarım altyapısının bazı kısımlarını ele geçirme yeteneğiyle ilgiliydi.

Wiz araştırmacıları üç spesifik bileşende zayıflık buldu: Kullanıcıların platformdaki mevcut modellere göz atmasına ve bunlarla etkileşime girmesine olanak tanıyan Hugging Face’in Çıkarım API’si; Yüz Çıkarımı Uç Noktalarını kucaklamak — veya yapay zeka modellerini üretime dağıtmak için özel altyapı; ve AI/ML uygulamalarını sergilemeye veya model geliştirme üzerinde işbirliği içinde çalışmaya yönelik bir barındırma hizmeti olan Hugging Face Spaces.

Turşu Sorunu

Wiz araştırmacıları, Hugging Face’in altyapısını ve keşfettikleri hataları silah haline getirmenin yollarını incelerken, Pickle formatına dayalı olanlar da dahil olmak üzere herkesin platforma kolayca bir AI/ML modeli yükleyebileceğini buldu. Turşu Python nesnelerini bir dosyada depolamak için yaygın olarak kullanılan bir modüldür. Python yazılım vakfı bile Pickle’ın güvensiz olduğunu düşünse de kullanım kolaylığı ve insanların ona olan aşinalığı nedeniyle popülerliğini koruyor.

Wiz’e göre “Yükleme sırasında isteğe bağlı kod çalıştıracak bir PyTorch (Pickle) modeli oluşturmak nispeten basittir.”

Wiz araştırmacıları, yükleme sırasında ters kabuk çalıştıracak özel bir Pickle tabanlı modeli Hugging Face’e yükleme yeteneğinin avantajından yararlandı. Daha sonra araştırmacıların Hugging Face’in altyapısı üzerinde ortamlarını keşfetmek için kullandıkları kabuk benzeri işlevsellik elde etmek için Çıkarım API’sini kullanarak etkileşime girdiler.

Bu alıştırma, araştırmacılara, modellerinin Amazon Elastic Kubernetes Service (EKS) üzerindeki bir kümedeki bir bölmede çalıştığını hızlı bir şekilde gösterdi. Buradan yola çıkarak araştırmacılar, paylaşılan altyapıdaki diğer kiracılara erişmelerine izin verebilecek sırları görüntülemek için gereken ayrıcalıkları elde etmelerine olanak tanıyan bilgileri çıkarmak amacıyla yaygın yanlış yapılandırmalardan yararlanabildiler.

Wiz, Hugging Face Spaces ile bir saldırganın uygulama oluşturma süresi boyunca kendi makinesindeki ağ bağlantılarını incelemesine olanak tanıyan rastgele kod çalıştırabildiğini buldu. İncelemeleri, diğer müşterilere ait olan ve kurcalayabilecekleri görselleri içeren paylaşılan bir konteyner kayıt defterine bir bağlantı olduğunu gösterdi.

Wiz, “Yanlış ellerde, dahili konteyner kaydına yazma yeteneğinin platformun bütünlüğü üzerinde önemli etkileri olabilir ve müşterilerin alanlarına tedarik zinciri saldırılarına yol açabilir” dedi.

Sarılma Yüz dedi Wiz’in keşfettiği riskleri tamamen azaltmıştı. Bu arada şirket, sorunların en azından kısmen, bu tür dosyalarla ilgili yukarıda belirtilen iyi belgelenmiş güvenlik risklerine rağmen, Pickle dosyalarının Hugging Face platformunda kullanılmasına izin vermeye devam etme kararıyla ilgili olduğunu belirledi.

Şirket, “Turşu dosyaları, Wiz tarafından yapılan araştırmaların çoğunun ve güvenlik araştırmacıları tarafından Hugging Face ile ilgili diğer yeni yayınların merkezinde yer alıyor” dedi. Hugging Face’te Pickle kullanımına izin vermek “mühendislik ve güvenlik ekiplerimiz için bir yüktür ve AI topluluğunun seçtikleri araçları kullanmasına izin verirken riskleri azaltmak için önemli çaba gösterdik.”

Hizmet Olarak Yapay Zeka ile Ortaya Çıkan Riskler

Wiz keşfini anlattı “Hizmet olarak yapay zeka” olarak bilinen yeni yapay zeka modellerini ve uygulamalarını barındırmak, çalıştırmak ve geliştirmek için ortak altyapıyı kullanırken kuruluşların farkında olması gereken risklerin bir göstergesi olarak. Şirket, riskleri ve bunlarla ilgili hafifletici önlemleri, kuruluşların genel bulut ortamlarında karşılaştıkları risklere benzetti ve aynı azaltıcı önlemlerin yapay zeka ortamlarında da uygulanmasını önerdi.

Wiz bu hafta bir blogda şunları söyledi: “Kuruluşlar, kullanılan tüm yapay zeka yığınının görünürlüğüne ve yönetimine sahip olduklarından emin olmalı ve tüm riskleri dikkatli bir şekilde analiz etmelidir.” Bu, “kullanımının” analiz edilmesini içerir. kötü niyetli modeller, eğitim verilerinin açığa çıkmasıeğitimdeki hassas veriler, güvenlik açıkları Güvenlik sağlayıcısı, “Yapay zeka SDK’larında, yapay zeka hizmetlerinin açığa çıkması ve saldırganlar tarafından kullanılabilecek diğer toksik risk kombinasyonları” dedi.

Salt Security’nin siber güvenlik stratejisi direktörü Eric Schwake, hizmet olarak yapay zekanın kullanımıyla ilgili kuruluşların bilmesi gereken iki önemli sorun olduğunu söylüyor. “Öncelikle tehdit aktörleri verileri çalmak veya sonuçları manipüle etmek için zararlı yapay zeka modelleri yükleyebilir veya çıkarım yığınındaki güvenlik açıklarından yararlanabilir” diyor. “İkincisi, kötü niyetli aktörler eğitim verilerini tehlikeye atmaya çalışabilir, bu da genellikle veri zehirlenmesi olarak bilinen önyargılı veya hatalı AI çıktılarına yol açabilir.”

Özellikle yapay zeka modellerinin karmaşık hale gelmesi nedeniyle bu sorunları tanımlamanın zor olabileceğini söylüyor. Bu riskin bir kısmını yönetmeye yardımcı olmak için kuruluşların yapay zeka uygulamalarının ve modellerinin API ile nasıl etkileşimde bulunduğunu anlaması ve bunu güvence altına almanın yollarını bulması önemlidir. “Kuruluşlar ayrıca keşfetmek isteyebilir Açıklanabilir Yapay Zeka (XAI) Yapay zeka modellerini daha anlaşılır hale getirmeye yardımcı olmak” diyor Schwake, “ve yapay zeka modellerindeki önyargıları veya riskleri belirlemeye ve azaltmaya yardımcı olabilir.”



siber-1