Güvenlik şirketleri, gelişmiş yapay zekadan (AI) yararlanan ürün ve özellikler yayınlamaya devam ederken bile, araştırmacılar bu tür teknolojinin yarattığı güvenlik açıkları ve tehlikeler konusunda uyarılarda bulunmaya devam ediyor. Ulusal Standartlar ve Teknoloji Enstitüsü (NIST), üretken yapay zekanın özellikle daha güvenli bir şekilde nasıl uygulanacağına ilişkin rehberliğin formüle edilmesine yardımcı olmak için yeni bir çalışma grubu kurulduğunu duyurdu.
Ocak ayının yayınlanmasının ardından AI Risk Yönetimi Çerçevesi (AI RMF 1.0) ve mart çıkışı Güvenilir ve Sorumlu Yapay Zeka Kaynak Merkezi, NIST, çerçevenin yeni sistemlere ve uygulamalara nasıl uygulanacağını ele almak için 22 Haziran’da Üretken Yapay Zeka Üzerine Kamu Çalışma Grubunu başlattı. Grup, çalışmalarına yapay zeka kullanım senaryoları için bir profil geliştirerek başlayacak, ardından üretken yapay zekayı test etmeye geçecek ve sağlık, iklim değişikliği ve diğer çevresel kaygılardaki küresel sorunları ele almak için nasıl kullanılabileceğini değerlendirerek bitirecek.
Üretken yapay zeka, son zamanlarda, özellikle de Kasım ayında ChatGPT’nin piyasaya sürülmesinden bu yana en son teknolojiyi halkın gözüne soktuğundan beri bir deney, endişe ve yoğun ticari ilgi kaynağı oldu. Çalışma grubunun geliştirici ve güvenlik topluluğunun mevcut sıcaklığını almasını sağlamak için NIST, gruba katılacağını söyledi. DEF CON 2023’te AI Köyü 11 Ağustos’ta Las Vegas’ta.
hakkında daha fazla bilgi NIST üretici yapay zeka çalışma grubu endüstri figürleriyle bir dizi görüntülü görüşme de dahil olmak üzere web sitesinde mevcuttur. Ulusal Yapay Zeka Danışma Komitesi’nin yeni makalesini okumak için 1. Yıl Raporu tam olarak, NAIAC sitesini ziyaret edin.