Lantern adlı yeni bir program, Meta ve Discord gibi çevrimiçi şirketler arasında platformlar arası sinyal paylaşımı yoluyla çevrimiçi çocuk cinsel istismarı ve istismarıyla (OCSEA) mücadele etmeyi amaçlıyor. Çevrimiçi çocuk cinsel istismarıyla mücadele etmek amacıyla ortak bir amaca sahip bir grup teknoloji işletmesi olan Tech Coalition, bugünkü duyuruda şunu yazdı Programın, potansiyel kurbanları başka platformlara taşıyarak avcıların tespit edilmekten kaçınmasını engellemeye yönelik bir girişim olduğu belirtiliyor.

Lantern, şirketlerin verilere katkıda bulunabileceği ve kendi platformlarını kontrol edebileceği merkezi bir veritabanı görevi görüyor. Şirketler, OCSEA politikasını ihlal ettiği bilinen e-posta adresleri veya kullanıcı adları, çocukların cinsel istismarına yönelik materyal (CSAM) karmaları veya CSAM anahtar kelimeleri gibi sinyaller gördüklerinde, bunları kendi sistemlerinde işaretleyebilirler. Duyuruda, sinyallerin kötüye kullanımı kesin olarak kanıtlamasa da şirketlerin araştırma yapmasına ve muhtemelen bir hesabı kapatmak veya etkinliği yetkililere bildirmek gibi eylemlerde bulunmasına yardımcı olduğu belirtiliyor.

Fenerin nasıl çalıştığını gösteren bir görselleştirme.
Resim: Teknoloji Koalisyonu

Meta yazdı Programa katılımını duyuran bir blog gönderisinde Lantern’in pilot aşamasında programın ortaklarından biri olan Mega tarafından paylaşılan bilgilerin “ihlal eden 10.000’den fazla Facebook Profili, Sayfası ve Instagram hesabını” kaldırmak ve bunları Ulusal’a bildirmek için kullanıldığı belirtildi. Kayıp ve İstismara Uğrayan Çocuklar Merkezi.

Koalisyonun duyurusunda ayrıca Discord’un güven ve güvenlik sorumlusu John Redgrave’den alıntı yapılıyor: “Discord aynı zamanda program aracılığıyla bizimle paylaşılan veri noktalarına göre hareket etti ve bu da birçok dahili soruşturmaya yardımcı oldu.”

Şu ana kadar Lantern’e katılan şirketler arasında Discord, Google, Mega, Meta, Quora, Roblox, Snap ve Twitch yer alıyor. Koalisyon üyeleri son iki yıldır Lantern’i geliştiriyor ve grup, teknik çözümler üretmenin yanı sıra programı “uygunluk incelemesinden” geçirmesi, yasal ve düzenleyici gerekliliklerle uyumlu ve “etik açıdan uyumlu” olmasını sağlaması gerektiğini söylüyor. ”

Bunun gibi programların en büyük zorluklarından biri, yeni sorunlar yaratmadan etkili olmasını sağlamaktır. 2021’de yaşanan bir olayda, bir baba, çocuğunun kasık enfeksiyonu resimleri nedeniyle Google’ın kendisini CSAM için işaretlemesinin ardından polis tarafından soruşturuldu. Birkaç grup, Apple’ın artık iptal edilen otomatik iCloud fotoğraf kütüphanesi CSAM tarama özelliğinde de benzer sorunların ortaya çıkabileceği konusunda uyardı.

Koalisyon Lantern’i denetleyecek ve veri paylaşımına ilişkin net yönergeler ve kurallar oluşturmaktan kendisinin sorumlu olduğunu söylüyor. Programın bir parçası olarak şirketlerin zorunlu eğitimleri ve rutin kontrolleri tamamlaması gerekiyor ve grup, politikalarını ve uygulamalarını düzenli olarak gözden geçirecek.



genel-2