Google, Perşembe günü yapay zeka (AI) modellerinin dağıtımına yönelik en iyi uygulamalarını paylaşmak için yeni bir araç tanıttı. Geçen yıl, Mountain View merkezli teknoloji devi, yalnızca şirket için değil aynı zamanda büyük dil modelleri (LLM’ler) oluşturan diğer kuruluşlar için de bir kılavuz olan Güvenli Yapay Zeka Çerçevesini (SAIF) duyurdu. Artık teknoloji devi, yapay zeka modelinin güvenliğini artırmak için eyleme geçirilebilir bilgiler içeren bir kontrol listesi oluşturabilen SAIF aracını tanıttı. Aracın, geliştiricilerin ve işletmelerin kontrol listesini almadan önce bir dizi soruyu yanıtlamaları gereken anket tabanlı bir araç olması dikkat çekicidir.

bir blog yazısıMountain View merkezli teknoloji devi, yapay zeka sektöründeki diğer kişilerin Google’ın yapay zeka modellerini dağıtma konusundaki en iyi uygulamalarından öğrenmesine yardımcı olacak yeni bir araç kullanıma sunduğunu vurguladı. Büyük dil modelleri, uygunsuz ve uygunsuz metinler, derin sahte bilgiler ve yanlış bilgiler oluşturmaktan Kimyasal, biyolojik, radyolojik ve nükleer (KBRN) silahlar dahil olmak üzere zararlı bilgiler oluşturmaya kadar çok çeşitli zararlı etkilere sahip olabilir.

Bir yapay zeka modeli yeterince güvenli olsa bile kötü aktörlerin, tasarlanmamış komutlara yanıt vermesini sağlamak için yapay zeka modelini jailbreak yapma riski vardır. Bu kadar yüksek risklerle birlikte geliştiricilerin ve yapay zeka firmalarının, modellerin kullanıcılar için yeterince güvenli olmasının yanı sıra yeterince güvenli olmasını sağlamak için yeterli önlem alması gerekiyor. Sorular, modellerin eğitimi, ayarlanması ve değerlendirilmesi, modellere ve veri kümelerine erişim kontrolleri, saldırıların ve zararlı girdilerin önlenmesi, yapay zeka destekli üretken aracılar ve daha fazlası gibi konuları kapsar.

Google’ın SAIF aracı, erişilebilen ankete dayalı bir format sunar Burada. Geliştiricilerin ve kuruluşların, “Eğitim, ayarlama veya değerlendirme verilerinizdeki kötü niyetli veya kazara yapılan değişiklikleri tespit edebiliyor, kaldırabiliyor ve düzeltebiliyor musunuz?” gibi soruları yanıtlamaları gerekiyor. Anketi tamamladıktan sonra kullanıcılara yapay zeka modelinin güvenliğindeki boşlukları doldurmak için takip etmeleri gereken özelleştirilmiş bir kontrol listesi verilecek.

Araç, veri zehirlenmesi, anında enjeksiyon, model kaynağına müdahale edilmesi ve diğerleri gibi riskleri ele alma kapasitesine sahiptir. Bu risklerin her biri ankette tanımlanmaktadır ve araç, soruna özel bir çözüm sunmaktadır.

Google ayrıca, Güvenli Yapay Zeka Koalisyonuna (CoSAI) 35 sektör ortağı eklediğini de duyurdu. Grup, üç odak alanında ortaklaşa yapay zeka güvenlik çözümleri oluşturacak: Yapay Zeka Sistemleri için Yazılım Tedarik Zinciri Güvenliği, Savunucuları Değişen Siber Güvenlik Ortamına Hazırlamak ve Yapay Zeka Risk Yönetişimi.



genel-8