Unity Technologies, geliştiricilerin çevrimiçi oyunlardaki toksisiteyi belirlemesine yardımcı olmak için AI kullanan geliştirici paketi için yeni bir araç duyurdu. Yeni Güvenli Ses aracı, kapalı beta sürümünde kullanıma sunuluyor ve stüdyoların toksisite raporlarını hızlı bir şekilde ayırıp incelemesine izin vermeyi amaçlıyor. Unity, aracın daha önce Hi-Rez’in Rogue Company tarafından erken testlerde kullanıldığını söylüyor.
Güvenli Ses’in toksik etkileşimleri belirlemek için ton, ses yüksekliği, tonlama, duygu, perde ve bağlam gibi özellikleri analiz ettiği söyleniyor. Bir oyuncu bir davranışla ilgili bir sorunu işaretlediğinde etkinleşir ve ardından izlemeye başlar ve insan moderatörlere bir rapor gönderir. Bu genel bakış panosu, moderatörlerin moderasyon planlarına yardımcı olmak için bireysel olayları gözden geçirmelerine ve zaman içindeki eğilimleri görmelerine olanak tanır. Unity ayrıca bunun, geldiği daha geniş bir toksisite çözümleri paketinde ilk olduğunu söylüyor.
Unity Create Solutions başkanı Mark Whitten, GameSpot’a şunları söyledi: “İnsanların bir oyunu bırakıp oynamayı bırakmasının bir numaralı nedenlerinden biri, çünkü zehirlilik ve diğer suiistimal unsurları etrafında bir tür kötü durum var,” dedi.
Hi-Rez Stüdyoları Unity ortaklığını duyurdu yeni aracı test etmeye başlayan güncellemeyi yayınladığı Şubat ayında yeni bir sesli sohbet kayıt sistemi için. Rogue Company baş yapımcısı, Safe Voice duyurusunda, aracın sorunları tırmanmadan önce tespit edip hafifletmede yardımcı olduğunu söyledi.
Erken test aşamasında Unity, sorunları doğru bir şekilde işaretlediğinden ve insanların dahil olması gereken süreyi kısalttığından emin olmak için test yapıyordu. Whitten, bu amaçla çok başarılı olduğunu söyledi. Belirli bir dönemde tipik olarak on binlerce rapor alan oyun geliştiricileri, bu raporları hızla daraltabildi ve sorunlu olma olasılığı en yüksek olanlara öncelik verdi. Ve otomasyon son zamanlarda teknolojide sıcak bir konu olmasına rağmen, Whitten bu aracın insan moderasyon ekiplerinin yükünü hafifletmeye yardımcı olması gerektiğini söylüyor.
Whitten, “Bunun bir verimlilik artışı olduğunu ve bir ikame senaryosu olmadığını düşünüyorum” dedi. “Bununla birlikte – ve yıllarca Xbox Live’ı yönettim – uygunsuz şeylere bakmakla uğraşmak zorunda olan bir insanın yerini alabildiğim herhangi bir gün, bunu memnuniyetle yapardım. insanların yapmalarını istemek, onları bütün gün bir grup kötü davranışa bakmakla meşgul etmek. Bunların bir kısmını yakalayan ekranlara sahip olmak ve ardından, öyle olmak yerine ekranlara dayalı olarak hareket etmelerine izin vermek çok daha iyi olur. tarayıcının kendisi.”
Bu tarama süreci moderatörlere veri besledikten sonra, geliştiriciler hangi eylemin yapılması gerektiğine karar verir. Tüm oyun moderasyonlarında olduğu gibi, politikalarını belirlemek ve cezaların tutarlı olmasını sağlamak stüdyoların sorumluluğundadır. Son olarak, kullanıcı gizliliğini korumak için oyuncuların diğer çevrimiçi oyun sözleşmelerinden ayrı olarak ses kaydını seçmeleri gerekecektir.
Whitten, “Veriler, Unity veritabanlarında anonimleştirilir” dedi. “Gerekirse moderasyon eylemi yapabilmeleri için oyundaki oyuncu kimliğine bağlı ve ardından hizmetlerden siliniyor.”
Oyun yayıncıları, çevrimiçi toksisiteyle çeşitli şekillerde mücadele etmek istiyor. Ubisoft, oyunculara yerel polisle iletişim kurmanın bir yolunu verdi ve geçen yıl, bir yapay zeka anti-toksisite projesini araştırmak için Riot ile birlikte çalıştığını duyurdu. En son Microsoft, Xbox Live kullanıcılarının ses kliplerini moderatörlerle paylaşmasına izin vereceğini duyurdu.
Burada tartışılan ürünler editörlerimiz tarafından bağımsız olarak seçilmiştir. Sitemizde öne çıkan herhangi bir şeyi satın alırsanız, GameSpot gelirden pay alabilir.