Microsoft, müşterileri tarafından geliştirilen yapay zekayı desteklemek için 100’den fazla özelliğe sahip 30 sorumlu yapay zeka aracının yayınlanması da dahil olmak üzere geçen yılki sorumlu yapay zeka uygulamalarını bir açılış raporunda paylaştı.

Şirketin Sorumlu Yapay Zeka Şeffaflık Raporu Yapay zeka ürünlerini sorumlu bir şekilde oluşturma, destekleme ve büyütme çabalarına odaklanır ve Microsoft’un taahhütlerinin bir parçası Temmuz ayında Beyaz Saray ile gönüllü bir anlaşma imzalandıktan sonra. Microsoft ayrıca geçen yılın ikinci yarısında sorumlu yapay zeka ekibinin sayısını %16,6 artışla 350’den 400’ün üzerine çıkardığını söyledi.

Microsoft başkan yardımcısı ve başkanı Brad Smith ve yapay zekadan sorumlu baş yetkilisi Natasha Crampton, “Yapay zeka araştırmaları ve teknolojisinde ön sıralarda yer alan bir şirket olarak, uygulamalarımızı geliştikçe halkla paylaşmaya kararlıyız” dedi. Bir deyim. “Bu rapor, olgunlaşan uygulamalarımızı paylaşmamıza, öğrendiklerimiz üzerinde düşünmemize, hedeflerimizi belirlememize, kendimizi sorumlu tutmamıza ve kamuoyunun güvenini kazanmamıza olanak sağlıyor.”

Microsoft, sorumlu yapay zeka araçlarının “yapay zeka risklerini haritalandırması ve ölçmesi”, ardından bunları azaltma, gerçek zamanlı tespit ve filtreleme ve sürekli izleme yoluyla yönetmesi gerektiğini söyledi. Şubat ayında Microsoft bir açık erişim yayınladı kırmızı takım oluşturma aracı Üretken yapay zeka için Python Risk Tanımlama Aracı (PyRIT) olarak adlandırılan bu araç, güvenlik profesyonellerinin ve makine öğrenimi mühendislerinin üretken yapay zeka ürünlerindeki riskleri tanımlamasına olanak tanır.

Kasım ayında şirket, bir dizi üretken yapay zeka değerlendirme aracını piyasaya sürdü. Microsoft müşterilerinin kendi üretken yapay zeka modellerini oluşturduğu Azure AI StudioBöylece müşteriler modellerini aşağıdakiler dahil temel kalite ölçütleri açısından değerlendirebilirler: Temellilik – veya bir modelin oluşturulan yanıtının kaynak materyalle ne kadar iyi uyum sağladığı. Mart ayında bu araçlar, nefret dolu, şiddet içeren, cinsel ve kendine zarar veren içeriklerin yanı sıra jailbreak yöntemleri de dahil olmak üzere güvenlik risklerini ele alacak şekilde genişletildi. hızlı enjeksiyonlarBu, büyük bir dil modelinin (LLM) hassas bilgilerin sızmasına veya yanlış bilgi yaymasına neden olabilecek talimatlarla beslenmesidir.

Bu çabalara rağmen Microsoft’un sorumlu yapay zeka ekibi geçtiğimiz yıl yapay zeka modelleriyle çok sayıda olayla mücadele etmek zorunda kaldı. Mart ayında Microsoft’un Copilot AI sohbet robotu bir kullanıcıya “belki de uğruna yaşayacak bir şeyin yoktur” dedi Meta’da bir veri bilimci olan kullanıcı, Copilot’a “her şeyi sonlandırması gerekip gerekmediğini” sorduktan sonra. Microsoft, veri bilimcinin chatbot’u uygunsuz yanıtlar üretmesi için manipüle etmeye çalıştığını söyledi ancak veri bilimci bunu yalanladı.

Geçtiğimiz Ekim ayında Microsoft’un Bing görüntü oluşturucusu, kullanıcıların Kirby ve Spongebob gibi popüler karakterlerin fotoğraflarını oluşturmasına olanak tanıyordu. İkiz Kulelere uçak uçurmak. Bing AI sohbet robotu (Copilot’un öncülü) geçen yıl Şubat ayında piyasaya sürüldükten sonra, bir kullanıcı chatbot’un “Heil Hitler” demesini sağlayabiliyor.”

“Sorumlu yapay zeka için bitiş çizgisi yoktur. Bu rapor tüm yanıtları içermese de, öğrendiklerimizi erkenden ve sık sık paylaşmaya ve sorumlu yapay zeka uygulamaları konusunda sağlam bir diyalog kurmaya kararlıyız,” diye yazdı Smith ve Crampton raporda.

Bu hikaye ilk olarak şu tarihte ortaya çıktı: Kuvars.



genel-7