yeni rapor Mastodon ve diğer merkezi olmayan sosyal medya platformlarının gevşek içerik denetleme politikalarının, çocukların cinsel istismarı materyallerinin çoğalmasına yol açtığını öne sürüyor. Stanford’un İnternet Gözlemevi yayınlandı yeni araştırma Pazartesi günü, merkezi olmayan sitelerin “çocuk güvenliği altyapısı” söz konusu olduğunda ciddi eksiklikleri olduğunu gösteriyor. Ne yazık ki, bu onları normal internetteki çoğu platformdan farklı kılmaz.

“Merkezi olmayan” web hakkında konuştuğumuzda, elbette “federe” sosyal medyadan veya “federal evren”—merkezi sahiplik ve yönetişimden kaçınan, bunun yerine kullanıcı özerkliğine ve gizliliğine öncelik veren etkileşimli bir model için platformların gevşek takımyıldızı. Fediverse, herkesin sosyal topluluklar kurmasına ve barındırmasına izin veren bir dizi ücretsiz ve açık kaynaklı web protokolü üzerinde çalışır. kendi sunucuları veya “örnekleri” bilindiği gibi. Bu merkezi olmayan alanı oluşturan sınırlı sayıda platform arasında Mastodon, web’de en popüler ve yaygın olarak kullanılanlardan biridir. Yine de, merkezi internetin yanında, merkezi olmayan bölge belirgin bir şekilde daha az kullanılan bölgedir; zirvesinde, Mastodon yaklaşık 2,5 milyon kullanıcıyla övündü. Bunu, Twitter’ın son günlük aktif kullanıcı sayılarıyla karşılaştırabilirsiniz. 250 milyon civarında bir yerde gezin.

Fediverse’in heyecan verici vaadine rağmen, modelinde bariz sorunlar var. Güvenlik tehditleri, bir kere, bir sorun. bu sınırlı kullanım kolaylığı Ekosistemin durumu da bir çekişme kaynağı olmuştur. Ve yeni Stanford araştırmasının da belirttiği gibi, merkezi gözetim eksikliği, yasa dışı ve ahlaka aykırı içeriğin çoğalmasına karşı savunma yapmak için ekosisteme yerleştirilmiş yeterli korkuluk olmadığı anlamına gelir. Gerçekten de araştırmacılar, iki günlük bir süre içinde en iyi Mastodon örneklerinde yaklaşık 600 parça bilinen veya şüphelenilen CSAM içeriğiyle karşılaştıklarını söylüyorlar. Korkunç bir şekilde, araştırmacıların karşılaştığı ilk CSAM parçası, araştırmanın ilk beş dakikasında keşfedildi. Genel olarak araştırmacılar, içeriğin kolayca erişilebilir olduğunu ve sitelerde kolaylıkla aranabileceğini söylüyor.

Rapor ayrıca içeriğin neden bu kadar erişilebilir olduğunu da açıklıyor…

…kötü aktörler, platforma en gevşek denetleme ve uygulama politikalarıyla gitme eğilimindedir. Bu, bazı örneklerin sınırlı kaynaklara sahip olduğu veya harekete geçmemeyi tercih ettiği merkezi olmayan ağların, Çocuklara Yönelik Cinsel İstismar Materyali’ni (CSAM) tespit etme veya hafifletme konusunda sorun yaşayabileceği anlamına gelir. Federasyon şu anda CSAM, Rıza Dışı Mahrem Görüntüler (NCII) ve diğer zararlı ve yasa dışı içerik ve davranışları durdurmayı zorlaştıran fazlalıklar ve verimsizliklerle sonuçlanıyor.

Gizmodo, yeni araştırma hakkında yorum yapmak için Mastodon’a ulaştı ancak yanıt alamadı. Platform yanıt verirse bu hikayeyi güncelleyeceğiz.

“Merkezi” web’in de büyük bir CSAM sorunu var

Stanford raporunun bulgularına rağmen, bir sitenin “merkezi” olması veya “gözetime” sahip olmasının, daha az yasa dışı içeriğe sahip olduğu anlamına gelmediği dikkate alınmalıdır. Gerçekten de, son araştırmalar, çoğu büyük sosyal medya platformunun çocuk istismarı malzemesiyle yüzüyor. Bir sitenin gelişmiş bir içerik denetleme sistemi olsa bile, bu, sistemin aşağılık içeriği belirleme ve ayıklamada özellikle iyi olduğu anlamına gelmez.

Örnek olay: Şubat ayında, rapor New York Times’tan Twitter’ın çarpıcı bir 400.000 kullanıcı hesabını “CSAM ile oluşturduğu, dağıttığı veya onunla etkileşim kurduğu” için temizlediğini gösterdi. Bird uygulamasının proaktif olarak hesapları kaldırmasına rağmen rapor, Twitter’ın Güvenlik ekibinin platformu akıllara durgunluk verecek miktarda kötüye kullanım materyalinden kurtarma görevinde “başarısız” göründüğünü belirtti.

Benzer şekilde, yakın tarihli bir Wall Street Journal soruşturma Ortalıkta dolaşan sadece şaşırtıcı miktarda çocuk istismarı materyali olmadığını gösterdi. Instagram, ancak platformun algoritmalarının sahip olduğu bu tür içeriği sübyancılara aktif olarak “terfi ettirdi”. Gerçekten de, Journal makalesine göre Instagram, sübyancıları ” [CSAM] niş ilgi alanlarını paylaşanları birbirine bağlamada mükemmel olan tavsiye sistemleri aracılığıyla içerik satıcıları. Journal’ın raporunun yayınlanmasının ardından Instagram’ın ana şirketi Meta, anlaşmak için dahili bir ekip oluşturduğunu söyledi.

“Yeni bir ortam için yeni araçlara” duyulan ihtiyaç

Hem merkezi hem de merkezi olmayan ağlar, CSAM’ın yayılmasıyla açık bir şekilde mücadele ederken, yeni Stanford raporunun baş araştırmacısı David Thiel, Fediverse’in bu soruna karşı özellikle savunmasız olduğunu söylüyor. Elbette, “merkezi” platformlar yasa dışı içeriği tespit etmede özellikle iyi olmayabilir, ancak kaldırmaları gerekiyorsa bunu yapacak araçları vardır. Bu arada Mastodon gibi platformlar, geniş ölçekte CSAM ile başa çıkmak için dağıtılmış altyapıdan yoksundur, diyor Thiel.

Thiel, Gizmodo’ya bir e-postada, “Sorunu yönetmeye yardımcı olacak yerleşik Fediverse araçları neredeyse yok, oysa büyük platformlar bilinen CSAM’yi otomatik bir şekilde çok kolay bir şekilde reddedebilir,” dedi. “Merkezi platformlar içerik üzerinde nihai yetkiye sahiptir ve onu mümkün olduğunca durdurma yeteneğine sahiptir, ancak Fediverse’de kötü aktörlerin bulunduğu sunucuları kesip devam edersiniz, bu da içeriğin hala dağıtıldığı ve kurbanlara zarar vermeye devam ettiği anlamına gelir.”

“Bence sorun, ademi merkeziyetçiliğin bir şekilde daha kötü olması değil, CSAM ile savaşmak için mevcut her teknik aracın az sayıda merkezi platform düşünülerek tasarlanmış olması. Mühendislik kaynakları ve finansman gerektirecek yeni bir ortam için yeni araçlara ihtiyacımız var.”

Thiel, hangi sosyal medya ekosisteminin “daha büyük” bir CSAM sorunundan muzdarip olduğu konusunda – merkezileştirilmiş mi yoksa merkezi olmayan mı – söyleyemediğini söyledi. “Temsili örnekler olmadan ve kullanıcı tabanını ayarlamadan “daha büyük” olanı ölçebileceğimizi sanmıyorum, dedi.





genel-7