Meta, geliştiricilerin genel kullanıma sunulmadan önce üretken yapay zeka modellerinin güvenilirliğini ve emniyetini değerlendirip artırmalarına yönelik açık kaynaklı araçlar oluşturmaya adanmış bir proje olan Purple Llama’yı tanıttı.

Meta, yapay zeka sorunlarının tek başına ele alınamayacağını belirterek, yapay zeka güvenliğini sağlamak için işbirlikçi çabalara duyulan ihtiyacı vurguladı. Şirket, Mor Lama’nın amacının daha güvenli gen AI geliştirmek için ortak bir temel oluşturmak olduğunu söyledi. endişeler arttıkça büyük dil modelleri ve diğer yapay zeka teknolojileri hakkında.

Meta, “Yapay zeka sistemleri kuran insanlar yapay zekanın zorluklarını bir boşlukta çözemezler, bu yüzden oyun alanını eşitlemek ve açık güven ve emniyet için bir kitle merkezi yaratmak istiyoruz” diye yazdı. Blog yazısı.

Siber güvenlik firması Ontinue’nun Baş Bilgi Güvenliği Sorumlusu Gareth Lindahl-Wise, Mor Lama’yı daha güvenli yapay zekaya yönelik “olumlu ve proaktif” bir adım olarak nitelendirdi.

“Kuşkusuz, gelişimi bir platformda toplama konusunda bazı erdem sinyali veya art niyet iddiaları olacaktır – ancak gerçekte, ‘alışılmışın dışında’ daha iyi tüketici düzeyinde koruma faydalı olacaktır” diye ekledi. “Sıkı şirket içi, müşteri veya düzenleyici yükümlülüklere sahip kuruluşların elbette yine de Meta’nın sunduğu tekliflerin ötesinde sağlam değerlendirmeleri takip etmesi gerekecek, ancak potansiyel Vahşi Batı’da hüküm sürmeye yardımcı olabilecek her şey ekosistem için iyidir.”

Proje, yapay zeka geliştiricileriyle ortaklıklar içeriyor; AWS ve Google Cloud gibi bulut hizmetleri; Intel, AMD ve Nvidia gibi yarı iletken şirketleri; ve Microsoft dahil yazılım firmaları. İşbirliği, yapay zeka modellerinin yeteneklerini test etmek ve güvenlik risklerini belirlemek için hem araştırma hem de ticari kullanıma yönelik araçlar üretmeyi amaçlıyor.

Purple Llama aracılığıyla piyasaya sürülen ilk araç seti şunları içerir: Siber GüvenlikEvalYapay zeka tarafından oluşturulan yazılımlardaki siber güvenlik risklerini değerlendiren. Şiddet veya yasa dışı faaliyetlerle ilgili tartışmalar da dahil olmak üzere uygunsuz veya zararlı metinleri tanımlayan bir dil modeli içerir. Geliştiriciler, yapay zeka modellerinin güvenli olmayan kod oluşturmaya veya siber saldırılara yardım etmeye yatkın olup olmadığını test etmek için CyberSecEval’i kullanabilir. Meta’nın araştırması, büyük dil modellerinin genellikle savunmasız kodlara işaret ettiğini ve yapay zeka güvenliği için sürekli test ve iyileştirmenin önemini vurguladığını buldu.

Lama Muhafızı Bu paketteki başka bir araçtır; potansiyel olarak zararlı veya rahatsız edici dili tanımlamak için eğitilmiş büyük bir dil modelidir. Geliştiriciler, modellerinin güvenli olmayan içerik üretip üretmediğini veya kabul edip etmediğini test etmek için Llama Guard’ı kullanabilir ve uygunsuz çıktılara yol açabilecek istemlerin filtrelenmesine yardımcı olabilir.

Telif Hakkı © 2023 IDG Communications, Inc.



genel-13