Gazeteciler, politikacılar ve VC’ler için çevrimiçi su soğutucusu olarak hizmet etmesine rağmen, Twitter bloktaki en karlı sosyal ağ değil. İç sarsıntıların ve yatırımcıların daha fazla para kazanma baskısının artmasının ortasında, Twitter’ın yetişkinlere uygun içerikten para kazanmayı düşündüğü bildiriliyor.

göre bildiri The Verge’den Twitter, yetişkin içerik oluşturucuların sosyal medya platformunda abonelik satmasına izin vererek OnlyFans’a rakip olmaya hazırlanıyordu. Bu fikir ilk başta garip gelebilir, ancak aslında o kadar da tuhaf değil – bazı yetişkin içerik oluşturucular, Twitter’da porno yayınlamanın yönergeleri ihlal etmediği tek büyük platformlardan biri olduğu için, OnlyFans hesaplarının reklamını yapmak için zaten Twitter’a güveniyorlar.

Ancak, ürünü güvenlik kusurları açısından test etmek üzere tasarlanmış 84 çalışanlı bir “kırmızı ekip”, Twitter’ın çocuklara yönelik cinsel istismar materyallerini (CSAM) ve rıza dışı çıplaklığı geniş ölçekte tespit edemediğini tespit ettikten sonra, Twitter bu projeyi görünüşe göre askıya aldı. Twitter ayrıca yetişkinlere yönelik içeriğin yaratıcılarının ve tüketicilerinin 18 yaşın üzerinde olduğunu doğrulamak için araçlardan yoksundu. Rapora göre, Twitter’ın Sağlık ekibi Şubat 2021’den bu yana platformun CSAM sorunu hakkında üst düzey kişileri uyarıyordu.

Bu tür içerikleri tespit etmek için Twitter, Microsoft tarafından geliştirilen ve platformların bilinen CSAM’i hızlı bir şekilde tanımlamasına ve kaldırmasına yardımcı olan PhotoDNA adlı bir veritabanı kullanır. Ancak bir CSAM parçası zaten bu veritabanının bir parçası değilse, daha yeni veya dijital olarak değiştirilmiş görüntüler algılamadan kurtulabilir.

Johns Hopkins Bilgi Güvenliği Enstitüsü’nde doçent olan Matthew Green, “İnsanların ‘Twitter kötü bir iş çıkarıyor’ dediğini görüyorsunuz” dedi. “Sonra Twitter’ın neredeyse herkesin kullandığı PhotoDNA tarama teknolojisini kullandığı ortaya çıktı.”

Twitter’ın yıllık geliri – yaklaşık 5 milyar dolar 2021’de – geçen yıl 257 milyar dolar gelir elde eden Google gibi bir şirkete kıyasla küçük. Google, CSAM’ı tanımlamak için daha karmaşık teknolojiler geliştirmek için finansal araçlara sahiptir, ancak bu makine öğrenimi destekli mekanizmalar kusursuz değildir. Meta ayrıca kullanır Google’ın İçerik Güvenliği API’si CSAM’i algılamak için.

Green, “Bu yeni tür deneysel teknoloji endüstri standardı değil” dedi.

Birinde son vaka, bir baba, yürümeye başlayan çocuğunun cinsel organlarının şiş ve ağrılı olduğunu fark etti ve oğlunun doktoruyla temasa geçti. Bir teletıp randevusu öncesinde baba, oğlunun enfeksiyonunun fotoğraflarını doktora gönderdi. Google’ın içerik denetleme sistemleri bu tıbbi görüntüleri CSAM olarak işaretleyerek babayı tüm Google hesaplarından kilitledi. Polis uyarıldı ve babayı soruşturmaya başladı, ancak ironik bir şekilde, Google Fi telefon numarasının bağlantısı kesildiği için babayla temasa geçemediler.

Green, TechCrunch’a “Bu araçlar yeni şeyler bulabilmeleri açısından güçlü, ancak aynı zamanda hataya açıklar” dedi. “Makine öğrenimi, doktorunuza bir şey göndermek ile gerçek çocuk cinsel istismarı arasındaki farkı bilmiyor.”

Bu tür bir teknoloji çocukları sömürüden korumak için kullanılıyor olsa da, eleştirmenler bu korumanın (kitlesel gözetim ve kişisel verilerin taranması) maliyetinin çok yüksek olduğundan endişe ediyor. Apple, geçen yıl NeuralHash adlı kendi CSAM algılama teknolojisini piyasaya sürmeyi planladı, ancak güvenlik uzmanları ve gizlilik savunucuları, teknolojinin hükümet yetkilileri tarafından kolayca kötüye kullanılabileceğini belirttikten sonra ürün rafa kaldırıldı.

Electronic Frontier Foundation için bir politika analisti olan Joe Mullin, “Bunun gibi sistemler, polisin ve topluluk üyelerinin kendilerine dostça davranmadığı yerlerde LGBT ebeveynler de dahil olmak üzere savunmasız azınlıklar hakkında rapor verebilir” dedi. bir blog yazısı. “Google’ın sistemi, ebeveynleri otokratik ülkelerdeki yetkililere veya yanlış bir şekilde suçlanan ebeveynlerin uygun yasal sürecin sağlanacağından emin olamadığı rüşvetçi polislerin bulunduğu yerlere yanlışlıkla bildirebilir.”

Bu, sosyal platformların çocukları sömürüden korumak için daha fazlasını yapamayacağı anlamına gelmez. Şubat ayına kadar, Twitter’ın kullanıcıların CSAM içeren içeriği işaretlemesi için bir yolu yoktu; bu, web sitesinin en zararlı içeriklerinden bazılarının, kullanıcı raporlarından sonra uzun süre çevrimiçi kalabileceği anlamına geliyordu. Geçen yıl iki kişi Twitter’a dava açtı iddiaya göre kar eden seks ticaretinin genç kurbanları olarak kaydedilen videolardan; dava ABD Dokuzuncu Devre Temyiz Mahkemesi’ne gidiyor. Bu davada davacılar, Twitter’ın kendileri hakkında bilgilendirildiğinde videoları kaldırmadığını iddia etti. Videolar 167.000’den fazla görüntüleme topladı.

Twitter zorlu bir sorunla karşı karşıya: Platform, tüm CSAM’leri tespit etmek neredeyse imkansız olacak kadar büyük, ancak daha sağlam güvenlik önlemlerine yatırım yapmak için yeterli parayı getirmiyor. Göre Verge’in raporuElon Musk’ın potansiyel olarak Twitter’ı satın alması, şirketteki sağlık ve güvenlik ekiplerinin önceliklerini de etkiledi. Geçen hafta Twitter’ın sağlık ekibini spam hesaplarını belirlemeye odaklanmak için yeniden düzenlediği iddia edildi – Musk, Twitter’ın platformdaki botların yaygınlığı hakkında yalan söylediğini iddia etti ve 44 milyar dolarlık anlaşmayı feshetme isteğinin nedeni olarak bunu gösterdi.

“Twitter’ın iyi ya da kötü yaptığı her şey, şimdi ‘Bu, denemeyi nasıl etkiler? [with Musk]” Yeşil dedi. “Tehlikede milyarlarca dolar olabilir.”

Twitter, TechCrunch’ın yorum talebine yanıt vermedi.



genel-24