Endişeli bir baba, Google’ın yeni yürümeye başlayan çocuğunun kasıklarındaki enfeksiyonun fotoğraflarını çekmek için Android akıllı telefonunu kullandıktan sonra görüntüleri çocuk cinsel istismarı materyali (CSAM) olarak işaretlediğini söylüyor. gelen bir rapor New York Times. Şirket, hesaplarını kapattı ve Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) bir rapor sundu ve bir polis soruşturmasını teşvik ederek, bir kullanıcının fotoğrafının bir parçası haline geldiğinde potansiyel suistimal ile masum bir fotoğraf arasındaki farkı anlatmaya çalışmanın zorluklarını vurguladı. ister kişisel cihazlarında ister bulut deposunda olsun, dijital kitaplık.

Apple’ın Çocuk Güvenliği planını duyurduğu geçen yıl, özel olarak kabul edilmesi gereken çizgileri bulanıklaştırmanın sonuçlarıyla ilgili endişeler yayınlandı. Planın bir parçası olarak Apple, iCloud’a yüklenmeden önce Apple cihazlarındaki görüntüleri yerel olarak tarayacak ve ardından görüntüleri NCMEC’in bilinen CSAM’in karma veritabanıyla eşleştirecekti. Yeterli eşleşme bulunursa, bir insan moderatör içeriği inceler ve CSAM içeriyorsa kullanıcının hesabını kilitler.

Kar amacı gütmeyen bir dijital haklar grubu olan Electronic Frontier Foundation (EFF), Apple’ın planını çarptı“özel hayatınıza bir arka kapı açabileceğini” ve “tüm iCloud Fotoğrafları kullanıcıları için gizlilikte bir gelişme değil, bir azalma” anlamına geldiğini söyledi.

Apple sonunda saklanan görüntü tarama bölümünü yerleştirdi beklemedeancak iOS 15.2’nin piyasaya sürülmesiyle birlikte çocuk hesapları için isteğe bağlı bir özellik aile paylaşım planına dahildir. Ebeveynler kabul ederse, o zaman bir çocuğun hesabında, Mesajlar uygulaması “görüntü eklerini analiz eder ve bir fotoğrafın çıplaklık içerip içermediğini belirlerken mesajların uçtan uca şifrelemesini korur.” Çıplaklık algılarsa, görüntüyü bulanıklaştırır, çocuğa bir uyarı gösterir ve onlara çevrimiçi güvenliğe yardımcı olacak kaynaklar sunar.

Vurgulanan ana olay New York Times COVID-19 salgını nedeniyle bazı doktor muayenehanelerinin hala kapalı olduğu Şubat 2021’de gerçekleşti. tarafından belirtildiği gibi Zamanlar, Mark (soyadı açıklanmayan) çocuğunun genital bölgesinde şişlik fark etti ve bir hemşirenin talebi üzerine video görüşmesi öncesinde konunun görüntülerini gönderdi. Doktor, enfeksiyonu iyileştiren antibiyotikler reçete ederek yaraladı.

Göre NYTMark, fotoğrafları çektikten sadece iki gün sonra Google’dan, hesaplarının “Google’ın politikalarını ciddi şekilde ihlal eden ve yasa dışı olabilecek” “zararlı içerik” nedeniyle kilitlendiğini belirten bir bildirim aldı.

Facebook, Twitter ve Reddit dahil olmak üzere birçok internet şirketi gibi Google, bilinen CSAM ile eşleşmeleri tespit etmek için yüklenen görüntüleri taramak için Microsoft’un PhotoDNA’sı ile karma eşleştirmeyi kullandı. 2012 yılında, kayıtlı bir seks suçlusu olan ve genç bir kızın resimlerini göndermek için Gmail’i kullanan bir adamın tutuklanmasına yol açtı.

2018 yılında Google duyurdu onun lansmanı İçerik Güvenliği API AI araç seti “Daha önce hiç görülmemiş CSAM görüntülerini proaktif olarak tanımlayabilir, böylece gözden geçirilebilir ve CSAM olarak onaylanırsa, mümkün olan en kısa sürede kaldırılıp rapor edilebilir.” Aracı kendi hizmetleri için kullanır ve YouTube mühendisleri tarafından geliştirilen video hedefleme CSAI Match karma eşleştirme çözümüyle birlikte başkaları tarafından da kullanılması için sunar.

Google “Kendi platformlarımızda ve hizmetlerimizde kötüye kullanımla mücadele”:

Bir görüntü veya video için bir “karma” veya benzersiz dijital parmak izi oluşturan makine öğrenimi sınıflandırıcıları ve karma eşleştirme teknolojisi dahil olmak üzere, karma değerlerle karşılaştırılabilmesi için eğitimli uzman ekipler ve en son teknolojiyle CSAM’i belirler ve rapor ederiz. bilinen CSAM. CSAM’ı bulduğumuzda, bunu dünyanın dört bir yanındaki kolluk kuvvetleriyle bağlantı kuran Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi’ne (NCMEC) bildiriyoruz.

Bir Google sözcüsü şunları söyledi: Zamanlar Google’ın, yalnızca bir kullanıcı, fotoğraflarının Google Fotoğraflar’a yedeklenmesini de içerebilecek “olumlu bir eylem” yaptığında kullanıcıların kişisel resimlerini taradığını söylüyor. Google, istismar amaçlı görüntüleri işaretlediğinde, Zamanlar Google’ın gerektirdiğini notlar Federal yasa potansiyel suçluyu NCMEC’deki CyberTipLine’a bildirmek. 2021’de Google’ın 621.583 vaka bildirdi CSAM’ın NCMEC’in CyberTipLine’ına 4.260 potansiyel kurbanın yetkililerini uyardıbir liste NYT Mark’ın oğlunun da dahil olduğunu söylüyor.

Mark, Google Fi’nin mobil hizmetini kullandığı için e-postalarına, kişilerine, fotoğraflarına ve hatta telefon numarasına erişimi kaybetti. Zamanlar raporlar. Mark hemen Google’ın kararına itiraz etmeye çalıştı, ancak Google, Mark’ın talebini reddetti. Mark’ın yaşadığı San Francisco Polis Departmanı, Aralık 2021’de Mark hakkında bir soruşturma başlattı ve Google’da sakladığı tüm bilgileri ele geçirdi. Davayı inceleyen müfettiş, nihayetinde olayın “suçun unsurlarını karşılamadığını ve suç oluşmadığını” tespit etti. NYT notlar.

Google sözcüsü Christa Muldoon, e-postayla gönderilen bir bildiride, “Çocukların cinsel istismarı materyali (CSAM) iğrenç ve bunun platformlarımızda yayılmasını önlemeye kararlıyız” dedi. Sınır. “CSAM’i neyin oluşturduğunu tanımlarken ABD yasalarına uyuyoruz ve onu tanımlamak ve platformlarımızdan kaldırmak için karma eşleştirme teknolojisi ile yapay zekanın bir kombinasyonunu kullanıyoruz. Ayrıca, çocuk güvenliği uzmanlarından oluşan ekibimiz, işaretlenen içeriğin doğruluğunu inceler ve kullanıcıların tıbbi tavsiye isteyebileceği durumları belirleyebilmemize yardımcı olmak için çocuk doktorlarına danışır.”

Çocukları istismardan korumak yadsınamaz derecede önemli olsa da, eleştirmenler, bir kullanıcının fotoğraflarını tarama uygulamasının gizliliklerini makul olmayan bir şekilde ihlal ettiğini savunuyor. EFF’de teknoloji projeleri direktörü Jon Callas, Google’ın uygulamalarını “müdahaleci” olarak nitelendirdi. NYT. Callas, “Hepimizin endişelendiği kabus tam da bu” dedi. NYT. “Aile albümümü tarayacaklar ve sonra başım belaya girecek.”



genel-2