Resim: Meta.

Geçen Perşembe, 7 Aralık, Meta Mor Lama duyurulduSorumlu ve güvenilir yapay zekanın gelişimini destekleyen küresel bir proje.

Bu proje, şirketin geçen Şubat ayında başlattığı açık kaynaklı LLM’yi kullanan geliştiricilere siber güvenlik, doğrulama ve I/O koruma araçları sağlamayı amaçlıyor.

Neden “Mor Lama”?

Meta, üretken yapay zekayla ilişkili riskleri azaltmak için bu projenin “mor” bir yaklaşım gerektireceğini, yani saldırıyı temsil eden “kırmızı” ile savunmayı temsil eden “mavi” karışımını gerektireceğini açıklıyor.

Purple Llama başlangıçta giriş ve çıkışları garanti etmek ve doğrulamak için siber araçlar sunacak. Bu araçlar gelecekte genişletilecektir.

Proje bileşenleri lisanslanacak ve araştırma ve ticari kullanıma sunulacaktır. Proje, geliştiriciler arasındaki işbirliğini ve üretken yapay zeka için güvenlik araçlarının standartlaştırılmasını teşvik etmeyi umuyor.

Riskleri değerlendirin ve kötü amaçlı araçların oluşturulmasını önleyin

Siber güvenlik açısından, büyük dil modellerinin (LLM) güvenliğine ilişkin sektör çapında bir değerlendirme gerçekleştirilecek ve sonuçlar yayınlanacak. Bu değerlendirme, LLM’lerin siber riskini ölçecek ölçümleri, LLM’lerin ne sıklıkla güvenli olmayan AI tarafından oluşturulan kod sunduğunu değerlendirecek araçları ve LLM’lerin kötü amaçlı kod oluşturmasını zorlaştıracak önlemleri içerecektir.

G/Ç koruma önlemlerinin bir parçası olarak, geliştiricilerin potansiyel olarak riskli sonuçlar üretmesini engellemeyi amaçlayan temel bir model olan Llama Guard da kamuya sunulacak. Model, halka açık çeşitli veri kümeleri üzerinde eğitilmiştir ve potansiyel olarak riskli veya rahatsız edici içerikleri tespit edebilmektedir.

Meta, geçtiğimiz Temmuz ayında LLM’nin yeni sürümü Llama 2’yi piyasaya sürmek için 100’den fazla şirketle çalıştı. Şirket, açık kaynak yaklaşımını benimseyerek bunlardan birkaçıyla çalışmaya devam etmek istiyor.

ZDNet.com



genel-15