Meta’nın, kaynaklarının çoğunu üretken yapay zekaya ayırdığı için Sorumlu Yapay Zeka (RAI) ekibini dağıttığı bildirildi. Bilgi Haber Ağı bugün gördüğü bir dahili gönderiye atıfta bulundu.
Rapora göre RAI üyelerinin çoğu şirketin üretken yapay zeka ürün ekibine geçecek, diğerleri ise Meta’nın yapay zeka altyapısı üzerinde çalışacak. Şirket düzenli olarak yapay zekayı sorumlu bir şekilde geliştirmek istediğini ve hatta bir sayfası var Şirketin hesap verebilirlik, şeffaflık, güvenlik, gizlilik ve daha fazlasını içeren “sorumlu yapay zeka sütunlarını” listelediği söze adanmıştır.
BilgiRaporunda Meta’yı temsil eden Jon Carvill’in şirketin “güvenli ve sorumlu yapay zeka gelişimine öncelik vermeye ve yatırım yapmaya devam edeceğini” söylediği aktarılıyor. Şirketin ekibi bölmesine rağmen, bu üyelerin “sorumlu yapay zeka geliştirme ve kullanımına ilişkin ilgili metalar arası çabaları desteklemeye devam edeceklerini” ekledi.
Meta, yorum talebine basın saatine kadar yanıt vermedi.
Ekip bu yılın başlarında zaten bir yeniden yapılanmaya tanık oldu ve bu da İşletme İçeriği yazdı RAI’yi “bir takımın kabuğu” haline getiren işten çıkarmalar da dahildi. Raporun devamında, 2019’dan bu yana faaliyet gösteren RAI ekibinin çok az özerkliğe sahip olduğu ve girişimlerinin uygulamaya koyulmadan önce uzun paydaş müzakerelerinden geçmesi gerektiği belirtildi.
RAI, platformlarında moderasyon sorunları gibi şeyleri önlemeye yönelik bir bakış açısıyla, şirket modellerinin yeterince çeşitli bilgilerle eğitilip eğitilmediği de dahil olmak üzere yapay zeka eğitim yaklaşımlarıyla ilgili sorunları belirlemek için oluşturuldu. Meta’nın sosyal platformlarındaki otomatik sistemler, sahte tutuklamaya neden olan bir Facebook çeviri sorunu, belirli yönlendirmeler verildiğinde önyargılı görüntülerle sonuçlanan WhatsApp AI çıkartma oluşturma ve insanların çocuklara yönelik cinsel istismar materyallerini bulmasına yardımcı olan Instagram algoritmaları gibi sorunlara yol açtı.