Çocuk güvenliğiyle ilgili dahili Meta belgeleri, New Mexico Adalet Bakanlığı’nın hem Meta’ya hem de CEO’su Mark Zuckerberg’e karşı açtığı davanın bir parçası olarak ortaya çıktı. Belgeler, Meta’nın yalnızca mesajlaşma platformlarını kasıtlı olarak çocuklara pazarlamakla kalmayıp, aynı zamanda yetişkinler ve küçükler arasında paylaşılan çok sayıda uygunsuz ve müstehcen içerikten de haberdar olduğunu ortaya koyuyor.
Değiştirilen şikayetin bir parçası olarak Çarşamba günü açıklanan belgeler, Meta çalışanlarının şirketin özel mesajlaşma platformlarında çocukların ve gençlerin sömürülmesine ilişkin dahili olarak endişelerini dile getirdiği birçok örneği vurguluyor. Meta, Messenger ve Instagram DM’lerinin reşit olmayan kullanıcılar için oluşturduğu risklerin farkına vardı, ancak kârlı olmadıkları için güvenlik önlemlerinin uygulanmasına veya tamamen engellenen çocuk güvenliği özelliklerine öncelik vermekte başarısız oldu.
TechCrunch’a yaptığı açıklamada New Mexico Başsavcısı Raúl Torrez, Meta ve Zuckerberg’in çocuk avcılarının çocukları cinsel olarak istismar etmesine olanak sağladığını söyledi. Geçtiğimiz günlerde Meta’nın Messenger için uçtan uca şifreleme koruması sağlamasına ilişkin endişelerini dile getirdi. geçen ay yayınlanmaya başladı. Ayrı bir dosyada Torrez, Meta’nın kendi platformunda çocuk istismarını ele almada başarısız olduğunu ve uygun korumalar olmadan yapılan şifrelemenin küçükleri daha fazla tehlikeye atacağını belirtti.
Torrez şöyle devam etti: “Yıllarca Meta çalışanları, Meta yöneticileri tarafından alınan kararların çocukları nasıl tehlikeli taleplere ve çocuk istismarına maruz bıraktığı konusunda alarm vermeye çalıştı.” “Bay Zuckerberg de dahil olmak üzere meta yöneticileri, sürekli olarak büyümeyi çocukların güvenliğinin önüne koyan kararlar aldılar. Şirket, çocukların platformlarında maruz kaldığı yasa dışı ve zararlı faaliyetleri küçümsemeye devam ederken, Meta’nın dahili verileri ve sunumları sorunun ciddi ve yaygın olduğunu gösteriyor.”
İlk olarak Aralık ayında açılan davada, Instagram ve Facebook gibi Meta platformlarının “avlanacak çocukları arayan avcılar için bir pazar yeri” haline geldiği ve Meta’nın, çocukların cinsel istismarına ilişkin materyallerin (CSAM) pek çok örneğini, bu platformların ardından kaldırma konusunda başarısız olduğu iddia ediliyor. Instagram ve Facebook’ta bildirildi. New Mexico DOJ, 14 yaşında veya daha küçük yaştakilere ait olduğu iddia edilen sahte hesaplar oluşturulduktan sonra, Meta’nın algoritmalarının CSAM’in yanı sıra CSAM’in alım satımını kolaylaştıran hesapları da ortaya çıkardığını söyledi. Bir göre basın bülteni Davayla ilgili olarak “çocuk istismarına yönelik bazı içerikler Facebook ve Instagram’da Pornhub ve OnlyFans’a kıyasla on kat daha yaygın.”
Mühürlenmemiş belgeler, Meta’nın kasıtlı olarak çocukları ve gençleri Messenger’a almaya çalıştığını ve bu süreçteki güvenlik özelliklerini sınırladığını gösteriyor. Örneğin 2016’da yapılan bir sunum, Facebook’tan çok Snapchat ve YouTube’da vakit geçiren gençler arasında şirketin popülaritesinin azalmasına ilişkin endişeleri dile getirdi ve yeni genç kullanıcıları “kazanmaya” yönelik bir planın ana hatlarını çizdi. 2017 yılında gönderilen dahili bir e-posta, bir Facebook yöneticisinin Messenger’ın “zararlı içerik” açısından taranmasına karşı çıktığını çünkü bunun “daha fazla gizlilik sunabilecek diğer uygulamalara karşı rekabet açısından bir dezavantaj” olacağını belirtiyor.
Belgelere göre Meta’nın, hizmetlerinin çocuklar arasında bu kadar popüler olduğunu bilmesi, genç kullanıcıları cinsel sömürüye karşı koruma konusundaki başarısızlığını “daha da vahim” hale getiriyor. 2020 tarihli bir sunumda şirketin “Oyun Sonu”nun “2022 yılına kadar ABD’deki birincil çocuk mesajlaşma uygulaması haline geleceği” belirtiliyor. Ayrıca Messenger’ın 6 ila 10 yaş arası çocuklar arasındaki popülerliğine de dikkat çekildi.
Meta’nın platformunda çocuk güvenliği konularını kabul etmesi özellikle utanç verici. Örneğin 2021’deki dahili bir sunumda, günde 100.000 çocuğun Meta’nın mesajlaşma platformlarında cinsel tacize uğradığı ve yetişkin cinsel organlarının fotoğrafları gibi müstehcen içerik aldığı tahmin ediliyor. 2020’de Meta çalışanları, bir Apple yöneticisinin 12 yaşındaki çocuklarının Instagram’da istendiğinden şikayet etmesinin ardından platformun App Store’dan kaldırılma olasılığından endişe duydu.
Dahili bir belgede “Bu Apple’ı sinirlendiren türden bir şey” belirtildi. Çalışanlar ayrıca Meta’nın “yetişkinlerin IG Direct’te küçüklere mesaj göndermesini” engellemek için bir zaman çizelgesi olup olmadığını sorguladılar.
2020 tarihli başka bir dahili belge, Facebook’ta uygulanan, “bağlantısız” yetişkinlerin küçüklere mesaj göndermesini engellemek gibi önlemlerin Instagram’da mevcut olmadığını ortaya çıkardı. Aynı önlemlerin Instagram’da da uygulanmasına “öncelik verilmedi”. Bir Meta çalışanı, belgenin yorumlarında güvenlik önlemlerinin bulunmamasını eleştirerek, yetişkin akrabaların Instagram Direct üzerinden çocuklara ulaşmasına izin vermenin “büyük bir büyüme şansı” olduğunu yazdı. Çalışan ayrıca Instagram’da kişisel bakımın Facebook’ta olduğundan iki kat daha fazla gerçekleştiğini belirtti.
Meta, Mart 2021’de çocuk güvenliğiyle ilgili başka bir sunumda bakım konusuna değindi ve Facebook ve Messenger’daki “ölçme, tespit ve koruma önlemlerinin” Instagram’a göre “daha olgun” olduğunu belirtti. Sunumda, Meta’nın “IG’de küçük cinselleştirmeye yeterince yatırım yapılmadığı”, özellikle de küçük içerik oluşturucuların gönderilerine bırakılan cinsel yorumlara dikkat çekildiği ve sorunu “yaratıcılar ve seyirciler için korkunç bir deneyim” olarak tanımladığı belirtildi.
Meta, CSAM’yi yeterince denetlemedeki başarısızlıkları nedeniyle uzun süredir incelemeyle karşı karşıya kaldı. ABD merkezli büyük sosyal medya platformlarının, CSAM örneklerini Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi’nin (NCMEC) CyberTipline’ına bildirmesi yasal olarak zorunludur. NCMEC’in raporuna göre en son yayınlanan veriler Facebook, 2022’den itibaren yaklaşık 21 milyon CSAM raporu sundu; bu, o yıl CyberTipline’a gönderilen tüm raporların yaklaşık %66’sını oluşturdu. Instagram (5 milyon) ve WhatsApp’tan (1 milyon) gelen raporlar dahil edildiğinde, NCMEC’e yapılan tüm raporların yaklaşık %85’inden Meta platformları sorumludur.
Bu orantısız rakam, Meta’nın ezici bir çoğunlukla geniş kullanıcı tabanıyla açıklanabilir. 3 milyar günlük aktif kullanıcılar, ancak birçok araştırmaya yanıt olarak, uluslararası liderler Meta’nın bu milyonlarca raporu hafifletmek için yeterince çaba göstermediğini savundular. Haziran ayında Meta şunları söyledi: Wall Street Dergisi Son iki yılda 27 pedofil ağını çökerttiğini ancak araştırmacıların hâlâ CSAM satın alan, satan ve dağıtan çok sayıda birbirine bağlı hesabı ortaya çıkarabildiğini söyledi. Journal’ın raporundan sonraki beş ay içinde Meta’nın öneri algoritmalarının CSAM’ye hizmet etmeye devam ettiği ortaya çıktı; Meta bazı hashtag’leri kaldırsa da onların yerine başka pedofili hashtag’ler ortaya çıktı.
Bu sırada Meta karşı karşıyadır. başka bir dava 42 ABD eyalet başsavcısından platformların çocukların ruh sağlığı üzerindeki etkisi hakkında.
Kaliforniya Başsavcısı Rob Bonta, “Meta’nın, sosyal medya platformlarının 13 yaşın altındaki milyonlarca çocuk tarafından kullanıldığını ve kişisel bilgilerini yasa dışı bir şekilde topladıklarını bildiğini görüyoruz” dedi. TechCrunch’a söyledi Kasım’da. “Bu, Meta’nın Kongre ve diğer düzenleyicilere kamuoyuna yönelik yorumlarında bir şey söylerken dahili olarak başka bir şey söylediği yaygın uygulamayı gösteriyor.”