bir rapora göre itibaren New York Timesçocuklara yönelik cinsel istismar görüntüleri (CSAM) Twitter’da hâlâ varlığını sürdürüyor. Elon Musk’ın belirttiği çocuk istismarı içeriğine karşı önlem almanın şirket için “1 numaralı öncelik” olduğunu.

İstismar içeren görüntüleri CSAM veri tabanıyla eşleştirmeye yardımcı olan Kanada Çocuk Koruma Merkezi ile çalışırken, Zamanlar Twitter’da daha önce sömürücü olarak işaretlenen içeriğin yanı sıra daha fazla satabileceklerini söyleyen hesapları ortaya çıkardığını söylüyor.

Araması sırasında, Zamanlar Twitter’da “birden çok hesapta” 150 örnekte 10 çocuk istismarı kurbanı içeren görüntüler bulduğunu söyledi. Bu arada, Kanada Çocuk Koruma Merkezi de benzer şekilde rahatsız edici sonuçlar elde etti ve Twitter’daki veritabanında toplamda 174.000’den fazla beğeni ve 63.000’den fazla retweet toplayan “en müstehcen videolardan” 260’ını ortaya çıkardı.

Twitter’ın öneri algoritması aracılığıyla CSAM’ı desteklediği bildiriliyor

Göre Zamanlar, Twitter aslında bazı görselleri, kullanıcılar için önerilen içeriği gösteren öneri algoritması aracılığıyla tanıtıyor. Platformun, Kanada merkezi şirkete haber verdikten sonra içeriğin yalnızca bir kısmını kaldırdığı bildirildi.

Bu aydan daha erken, twitter dedi CSAM içeriğinin “erişimini proaktif ve ciddi şekilde sınırlıyor” ve platform “içeriği kaldırmak ve ilgili kötü aktörleri askıya almak” için çalışacak. Şirket, Kasım ayından bu yana yüzde 112 artışla “bu içeriği oluşturan, dağıtan veya bunlarla etkileşim kuran” yaklaşık 404.000 hesabı askıya aldığını iddia ediyor.

“Ses [of CSAM] Kanada merkezinin teknoloji direktörü Lloyd Richardson, minimum çabayla bulabilmemizin oldukça önemli olduğunu söylüyor. Zamanlar. “Sistemlerinde oturan bu tür içeriği bulmak, dışarıdan gelen kişilerin işi olmamalı.”





genel-2