Apple, Çocuk İstismarı Materyalleri İçin iCloud Fotoğraflarını Tarama Planlarını Resmi Olarak İptal Etti başlıklı makale için resim

Fotoğraf: Anton_İvanov (Doğrulanmış)

Apple, şimdiye kadarki en tartışmalı tekliflerinden birini resmen öldürdü: bir plan çocukların cinsel istismarı materyali (veya CSAM) belirtileri için iCloud görüntülerini taramak için.

Evet, geçen yaz, Apple ilan edildi iOS’ta, kötü malzeme belirtileri için tek tek kullanıcıların fotoğraflarında sessizce tarama yapmak için ileri teknolojiyi kullanan yeni bir özellik olan cihazda taramayı kullanıma sunacağını söyledi. Yeni özellik şuydu: tasarlanmış böylece, tarayıcı kanıt bulursa CSAM’a göre, daha sonra muhtemelen polisi uyaracak olan insan teknisyenleri uyaracaktı.

Plan hemen bir sağanak esin kaynağı oldu. ters tepki Eleştirmenler, tarama özelliğinin nihayetinde diğer içerik türlerini avlamak için yeniden tasarlanabileceğini ve iOS’ta bu tür tarama özelliklerine sahip olmanın bile daha geniş bir alana doğru kaygan bir eğim olduğunu savundu. gözetleme ihlalleri. Genel fikir birliği, polis için hızla bir arka kapı haline gelebileceği yönündeydi..

O sırada Apple, eleştirilere karşı sert bir mücadele verdi, ancak şirket sonunda yumuşadı ve çok uzun sürmedi. başlangıçta yeni özelliği duyurduktan sonra, “ertelemek” uygulaması daha sonraki bir tarihe kadar.

Şimdi, o tarih hiç gelmeyecek gibi görünüyor. Çarşamba günü, bir dizi yeni iCloud güvenliği duyurusunun ortasında özellikleri, şirket ayrıca cihazda tarama planlarında ilerlemeyeceğini de açıkladı. Bir açıklamada paylaşılan Wired dergisi ile Apple, farklı bir yol izlemeye karar verdiğini açıkça ortaya koydu:

Geçen yıl önerdiğimiz çocuk koruma girişimleriyle ilgili geri bildirim toplamak için uzmanlarla kapsamlı istişarelerin ardından, ilk olarak Aralık 2021’de kullanıma sunduğumuz İletişim Güvenliği özelliğine yaptığımız yatırımı derinleştiriyoruz. Daha önce önerdiğimiz CSAM tespitinde ilerlememeye karar verdik. iCloud Fotoğrafları için araç. Şirketler kişisel verileri taramadan da çocuklar korunabilir ve gençleri korumaya, mahremiyet haklarını korumaya ve interneti çocuklar ve hepimiz için daha güvenli bir yer haline getirmeye yardımcı olmak için hükümetler, çocuk savunucuları ve diğer şirketlerle çalışmaya devam edeceğiz. .

Apple’ın planları göründü iyi niyetli CSAM’ın dijital çoğalma bir büyük sorun– ve uzmanlar söylüyor ki sadece daha kötüye gitti son yıllarda. Belli ki bir çaba böyle bir krizi çözmek iyi bir şeydi. Bahsedilen, Apple’ın kullanmayı önerdiği temel teknoloji—ve gözetim ortaya çıkardığı tehlikeler – bunu başarmak için doğru araç değildi.



genel-7