Twitter’a uygulanabilir bir alternatif olarak görülen merkezi olmayan ağ Mastodon, bir araştırmaya göre çocukların cinsel istismarı materyalleriyle (CSAM) dolu. yeni çalışma itibaren Stanford’un İnternet Gözlemevi (aracılığıyla Washington post). Araştırmacılar sadece iki gün içinde platformdaki 325.000 gönderide bilinen CSAM’nin 112 örneğini buldular ve ilk örnek yalnızca beş dakikalık aramanın ardından ortaya çıktı.

İnternet Gözlemevi, araştırmasını yürütmek için CSAM için en popüler 25 Mastodon örneğini taradı. Araştırmacılar ayrıca müstehcen görüntüleri belirlemek için Google’ın Güvenli Arama API’sini ve işaretli CSAM’yi bulmaya yardımcı olan bir araç olan PhotoDNA’yı kullandı. Ekip, araması sırasında çevrimiçi olarak çocuklara yönelik cinsel istismar grupları tarafından sıklıkla kullanılan hashtag’ler veya anahtar kelimelerle eşleşen 554 içerik parçası buldu ve bunların tümü, Google Güvenli Arama tarafından “en yüksek güvenilirlikte” müstehcen olarak tanımlandı.

CSAM’ın açık ilanı “rahatsız edici derecede yaygın”

Fediverse genelinde medya içeren gönderilerde CSAM ile ilgili en iyi 20 hashtag’in 713 kullanımı ve “site dışı CSAM ticareti veya küçüklerin tımarlanması”na işaret eden 1.217 salt metin gönderisi vardı. Çalışma, CSAM’ın açık ilanının “rahatsız edici derecede yaygın” olduğunu belirtiyor.

Bir örnek, Mastodon’a gönderilen CSAM nedeniyle meydana gelen bir olay olan, bu ayın başlarında fark ettiğimiz uzatılmış mastodon.xyz sunucusu kesintisine atıfta bulunuyordu. İçinde olayla ilgili bir yazısunucunun tek koruyucusu, CSAM içeren içerik konusunda uyarıldıklarını belirtti, ancak denetimin boş zamanlarında yapıldığını ve bunun gerçekleşmesinin birkaç gün sürebileceğini belirtiyor — bu, dünya çapında bir yüklenici ekibiyle Meta gibi dev bir operasyon değil, sadece bir kişi.

Söz konusu içeriğe karşı önlem aldıklarını söylemelerine rağmen, mastodon.xyz alan adının barındırıcısı yine de askıya almış ve listeyi geri yüklemek için birisine ulaşana kadar sunucuya erişilemez hale getirmiştir. Sorun çözüldükten sonra mastodon.xyz yöneticisi, kayıt kuruluşunun gelecekteki yayından kaldırmaları önlemek için alanı “yanlış pozitif” listesine eklediğini söylüyor. Ancak araştırmacıların belirttiği gibi, “eyleme neden olan şey yanlış bir pozitif değildi.”

Raporun araştırmacılarından biri olan David Thiel, “İki günlük bir süre içinde, organizasyonumuzun herhangi bir tür sosyal medya analizi yapma tarihinde muhtemelen sahip olduğumuzdan daha fazla fotoDNA isabeti aldık ve bu yakın bile değil” dedi. Washington post. “Birçoğu, merkezi sosyal medya platformlarının çocuk güvenliği endişelerini gidermek için kullandığı araç eksikliği gibi görünen şeyin bir sonucudur.

Mastodon gibi merkezi olmayan ağların popülaritesi arttıkça güvenlikle ilgili endişeler de artıyor. Merkezi olmayan ağlar, denetleme için Facebook, Instagram ve Reddit gibi ana akım sitelerle aynı yaklaşımı kullanmaz. Bunun yerine, merkezi olmayan her bir örneğe, Fediverse genelinde tutarsızlık yaratabilecek denetleme üzerinde kontrol verilir. Bu nedenle araştırmacılar, Mastodon gibi ağların moderatörler için PhotoDNA entegrasyonu ve CyberTipline raporlama ile birlikte daha sağlam araçlar kullandığını öne sürüyor.



genel-2