Avrupa Birliği, çocuk koruma konusundaki eylemini hızla temizlemesi gerektiğini aksi takdirde “ağır yaptırımlar” riskiyle karşı karşıya kalacağını söyleyerek Meta’yı sert bir şekilde uyardı.

Uyarı, bir raporun ardından Wall Street Gazetesi Dün. WSJ, sübyancıları ana akım sosyal ağ platformunda çocuk cinsel istismarı materyali (CSAM) satıcılarına bağlamak için kurulmuş bir Instagram hesapları ağını açığa çıkarmak ve ifşa etmek için Stanford Üniversitesi ve Massachusetts Amherst Üniversitesi’ndeki araştırmacılarla birlikte çalıştı.

Araştırma by Stanford ayrıca Meta’nın sahip olduğu fotoğraf paylaşım sitesini kendi kendine üretilen CSAM (SG-CSAM) satıcıları için en önemli platform olarak buldu ve Instagram’ın öneri algoritmalarını “platformun SG-CSAM reklamcılığındaki etkinliğinin temel nedeni” olarak gösterdi. .

İçinde cıvıldamak AB’nin iç pazar komiseri Thierry Breton, bu sabah adtech devine ateş açtı ve şirketin “çocuk koruma konusundaki gönüllü yasasının işe yaramadığını” söyledi ve ekledi: “Mark Zuckerberg şimdi açıklamalı ve hemen harekete geçmeli.”

Breton, bu ayın sonlarında Meta’nın ABD’deki genel merkezinde Zuckerberg ile yapacağı toplantıda çocuk güvenliğini artıracağını söyledi ve AB’nin Meta’nın etkili önlemlerin yürürlükte olduğunu göstermesini beklediğini söyleyerek bu konuda katı bir son tarih uygulayacağını doğruladı. 25 Ağustos, şirketin yasal olarak AB’nin Dijital Hizmetler Yasasına (DSA) uyması gerektiği zaman.

Platformların CSAM gibi yasa dışı içerikle nasıl mücadele etmesi gerektiğine ilişkin kuralları belirleyen DSA’ya uymama cezaları, küresel yıllık cironun %6’sına kadar çıkabilir.

Hem Instagram hem de Facebook, DSA kapsamında çok büyük çevrimiçi platformlar (diğer bir deyişle VLOP’lar) olarak belirlenmiş olup, bu platformlara bağlı sistemik riskleri, özellikle tavsiye sistemlerinden ve algoritmalardan kaynaklananlar da dahil olmak üzere değerlendirip hafifletmek için ek yükümlülükler getirmektedir. Yani Meta’nın burada karşı karşıya olduğu risk düzeyi önemli görünüyor.

Breton, hem WSJ’nin raporunu hem de WSJ’nin raporunu işaret eden tweet’te “25 Ağustos’tan sonra #DSA kapsamında Meta bize önlemler göstermek zorunda yoksa ağır yaptırımlarla karşı karşıya kalacak” uyarısında bulundu. Stanford’un araştırma makalesi bir dizi büyük sosyal platformdaki CSAM etkinliğine bakıldığında, “Instagram şu anda bu ağlar için en önemli platformdur ve alıcılarla satıcıları birbirine bağlamaya yardımcı olan özelliklerle” sonucuna varır.

Breton’un harekete geçmemesi halinde “ağır yaptırımlar” tehdidi, AB’de Meta için milyarlarca (çoğul) dolarlık para cezası anlamına gelebilir.

Breton’un çocuk koruma konusundaki uyarısına yanıt almak için Meta’ya ulaştık, ancak bu yazı yazıldığı sırada yanıt vermemişti.

Instagram, CSAM satıcılarını önerirken bulundu

Journal’ın araştırması, pedofilleri CSAM satıcılarıyla ilişkilendirmede Instagram’ın öneri algoritmalarının oynadığı rolü vurguladı.

Journal ve akademik araştırmacıların bulduğuna göre, “Instagram sübyancıları birbirine bağlıyor ve niş ilgi alanlarını paylaşanları birbirine bağlamada mükemmel olan tavsiye sistemleri aracılığıyla onları içerik satıcılarına yönlendiriyor” diye yazdı.

“Platformdaki çoğu kişi için gözden uzak olsa da, Instagram’daki cinsel içerikli hesaplar ilgileri konusunda yüzsüz. Araştırmacılar, Instagram’ın insanların #pedowhore ve #preteensex gibi müstehcen hashtag’leri aramasına olanak sağladığını ve onları satılık çocuk seks malzemelerinin reklamını yapmak için terimleri kullanan hesaplara bağladığını buldu. Bu tür hesaplar genellikle çocukların kendileri tarafından yönetildiğini iddia eder ve “senin için küçük sürtük” gibi kelimeler içeren açık bir şekilde cinsel ifadeler kullanır.

Meta, yayınlanmadan önce WSJ tarafından kendisine yöneltilen sorgulara, Journal’ın raporuna göre bazılarının milyonlarca gönderisi olduğunu belirttiği çocukları cinselleştiren binlerce hashtag’i engellediğini söyleyerek yanıt verdi.

Teknoloji devi ayrıca, sistemlerini çocuklara yönelik cinsel istismarla ilişkili olduğu bilinen kullanıcılara arama terimleri önermekten kısıtladığını söyledi.

WSJ’nin raporu, soruşturmaya dahil olan araştırmacılara pedofili ile ilgili bir hashtag aradıkları sırada Instagram tarafından sunulan ve “bu sonuçlar çocuk cinsel istismarı görüntüleri içerebilir” uyarısında bulunan bir açılır pencerenin ekran görüntüsünü içeriyor. Bildirimdeki metin ayrıca CSAM’ı izlemenin yasal risklerini, cinsel istismarın çocuklara verdiği zararı açıklıyor ve kullanıcıya iki seçenek sunmadan önce “gizli yardım almak” veya “uygunsuz” içeriği bildirmek için önerilen kaynaklar: “Kaynak al” veya “Yine de sonuçları gör” – platformun hashtag’lerle ilişkili CSAM sorunlarının farkında olduğunu ancak içeriği kaldırmayı başaramadığını ve hatta kullanıcıların içeriğe erişmesini engelleyemediğini öne sürüyor.

WSJ’ye göre Meta, kullanıcıların şüphelenilen CSAM’ı görüntülemesine izin veren seçeneği yalnızca soru sorduktan sonra kaldırdı ve raporuna göre şirket, en başta neden böyle bir seçenek sunduğunu açıklamayı reddetti.

Platformun şüpheli CSAM’leri tespit edebildiği düşünülürse, Instagram’ın tavsiye motorunun esas olarak CSAM satıcı hesaplarını tanıtmadaki aktif rolü de aynı derecede rahatsız edici görünüyor – Meta’nın etkileşimi artırmak için kullanıcılar üzerinde uyguladığı davranışsal gözetimden neden yararlanmadığı (ve pedofil ağını haritalamak ve kapatmak için benzer platform etkinliğini tespit etmeye dayalı olarak hesapları içerikle eşleştirerek reklam gelirini artırın).

Bunun üzerine Meta, WSJ’ye, sistemlerinin potansiyel olarak pedofilik yetişkinlerin birbirleriyle bağlantı kurmasını veya birbirlerinin içeriğiyle etkileşime girmesini önermesini engellemeye çalıştığını söyledi.

Journal’ın raporları ayrıca, Instagram’ın algoritmalarının, platformun çocuk seks içeriği iletmekle ünlü bir şifreli dosya aktarım hizmetine bağlantılara uyguladığı bir engellemeyi aşmak için otomatik olarak ek arama terimleri önerdiği örnekleri de kaydediyor.

WSJ raporu ayrıca, Instagram’da yalnızca reşit olmayan bir satıcı hesabını görüntülemenin, platformun kullanıcılara yeni CSAM satış hesaplarını görüntülemelerini önermesine nasıl yol açtığını da ayrıntılarıyla anlatıyor.

“Stanford ve Journal tarafından şirketin dikkatine sunulan ilk hesap taramasının ardından, UMass’ın [Brian Levine, director of the Rescue Lab] Instagram’da kalan reşit olmayan satıcı hesaplarından bazılarını kontrol ettim. Daha önce olduğu gibi, bunlardan birini bile görüntülemek, Instagram’ın yenilerini önermesine neden oldu. Instagram’ın önerileri, platformun kendi güvenlik personelinin dağıtmaya çalıştığı ağı yeniden inşa etmeye yardımcı oluyordu.”





genel-24