Meta ve Snap, bloğun Dijital Hizmetler Yasası’nda (DSA) belirtilen gereklilikler doğrultusunda platformlarında reşit olmayanları korumak için attıkları adımlar hakkında Avrupa Komisyonu’ndan resmi bilgi talepleri (RFI) alan en son teknoloji firmaları oldu.
Dün Komisyon TikTok’a benzer RFI’lar gönderdi ve YouTube da çocukların korunmasına odaklandı. Küçüklerin güvenliği hızla AB’nin DSA gözetiminde öncelikli bir alan haline geldi.
Komisyon, Nisan ayında çok büyük çevrimiçi platformlar (VLOP’lar) ve çok büyük çevrimiçi arama motorları (VLOSE’ler) olarak adlandırılan 19 adet belirledi; bunların arasında Meta’nın sosyal ağları Facebook ve Instagram ile Snap’in mesajlaşma uygulaması Snapchat de vardı.
Tam sistem, daha küçük hizmetler için uyumluluğun devreye girdiği gelecek yılın Şubat ayına kadar çalışır durumda olmayacak olsa da, daha büyük platformların Ağustos ayının sonlarından itibaren DSA uyumlu olması bekleniyor.
En son RFI, Meta ve Snap’ten, özellikle çocukların zihinsel ve fiziksel sağlığına yönelik risklere atıfta bulunarak, küçükleri çevrimiçi ortamda korumaya yönelik risk değerlendirmeleri ve hafifletme önlemleriyle ilgili yükümlülüklere nasıl uydukları konusunda daha fazla ayrıntı istiyor.
İki şirkete en son RFI’ye yanıt vermeleri için 1 Aralık’a kadar süre verildi.
Yorum yapmak için ulaşılan bir Snap sözcüsü şunları söyledi:
RFI’yi aldık ve zamanı gelince Komisyon’a yanıt vereceğiz. Dijital platformların kullanıcılarına yaşa uygun, güvenli ve olumlu bir deneyim sunmasını sağlamaya yardımcı olmak için AB ve DSA’nın hedeflerini paylaşıyoruz.
Meta ayrıca bize bir bildiri gönderdi:
Gençlere güvenli, olumlu çevrimiçi deneyimler sağlamaya kararlıyız ve gençleri ve ailelerini desteklemek için halihazırda 30’dan fazla aracı kullanıma sunduk. Bunlar arasında, gençlerin Instagram’ı ne zaman ve ne kadar süreyle kullanacağına ebeveynlerin karar vermesine yönelik denetim araçları, gençlerin yaşlarına uygun deneyimler yaşamasını sağlamaya yardımcı olan yaş doğrulama teknolojisi ve gençlerin ekran başında geçirdikleri süreyi yönetmelerine yardımcı olan Sessiz Mod ve Ara Ver gibi araçlar yer alıyor. Bu çalışmayla ilgili daha fazla ayrıntıyı Avrupa Komisyonu’na sunmayı sabırsızlıkla bekliyoruz.
Bu, Meta’nın aldığı ilk DSA RFI değil; Komisyon ayrıca geçtiğimiz günlerde İsrail-Hamas savaşıyla ilgili yasa dışı içerik ve dezenformasyon risklerini azaltmak için neler yaptığına ilişkin daha fazla ayrıntı talep etti; ve seçim güvenliğini sağlamak için attığı adımlar hakkında daha fazla ayrıntı için.
Orta Doğu’daki savaş ve seçim güvenliği, çocukların korunmasının yanı sıra, Komisyon’un DSA’yı uygulaması açısından diğer öncelikli alanlar olarak hızla ortaya çıktı.
Geçtiğimiz günlerde AB de bir açıklama yayınladı. Çin e-ticaret devi AliExpress’te RFI — Özellikle sahte ilaçlar gibi yasa dışı ürünler gibi alanlarda tüketicinin korunmasıyla ilgili yükümlülüklere uymaya yönelik tedbirler hakkında daha fazla bilgi aramak. Bu nedenle, tehlikeli maddelerin çevrimiçi olarak satılmasıyla ilgili riskler, bir başka erken odak noktası gibi görünüyor.
Öncelikli alanlar
Komisyon, DSA’yı VLOP’lar/VLOSE’ler üzerinde uygulamaya yönelik ilk odak noktasının “kendini açıklayıcı” olduğunu ve amiral gemisi şeffaflık ve hesap verebilirlik çerçevesinin sonuçları hızlı ve hızlı bir şekilde sunması için zorunluluk olarak gördüğü alanlara odaklandığını söylüyor.
Bir Komisyon yetkilisi, gazetecilerle yaptığı arka plan brifinginde, “Bizim gibi yeni bir dijital düzenleyici olduğunuzda, öncelikli alanları belirleyerek işinize başlamanız gerekir” dedi. “Elbette Hamas-İsrail çatışması bağlamında (yasadışı içerik, antisemitizm, ırkçılık) bu önemli bir alandır. Platformların yasa dışı içerikleri hızlı bir şekilde kaldırabilmeleri için sistemleriyle hazır olmaları gerektiğini hatırlatmak için orada olmamız gerekiyordu.
“Rehinelerin başına neler gelebileceğine ya da gelmiş olabileceğine dair potansiyel canlı görüntüleri hayal edin, bu yüzden onlarla gerçekten erkenden etkileşime geçmek zorunda kaldık. Ayrıca oradaki dezenformasyonla mücadelede ortak olmak.”
Komisyonun bu hafta özellikle harekete geçtiği bir diğer “önemli alan” da çocukların korunmasıdır; reşit olmayanların çevrimiçi deneyimlerini iyileştirmeye yönelik düzenlemeye ilişkin “büyük vaat” göz önüne alındığında. Komisyona göre çocuk güvenliği gösteri odasının iyileştirilmesine ilişkin ilk risk değerlendirme platformları oluşturuldu.
Bir AB yetkilisi, DSA’nın VLOP’lardan ve VLOSE’lerden talep ettiği ve bu ayın başlarındaki son teslim tarihinden önce son haftalarda yayınlanan ilk şeffaflık raporları setindeki açıklamaların “karışık bir çanta” olduğunu söyledi.
Komisyon, insanların tüm raporlara kolayca erişebileceği merkezi bir veri deposu oluşturmadı. Ancak platformların kendi sitelerinde mevcutlar. (Meta’nın Facebook ve Instagram için DSA şeffaflık raporları buradan indirildi, Örneğin; sırasında Snap’in raporu burada.)
Açıklamalar, AB Üye Devleti başına aktif kullanıcılar gibi temel ölçümleri içerir. Raporlar ayrıca içerik denetleme personelinin dil becerilerine ilişkin ayrıntılar da dahil olmak üzere platformların içerik denetleme kaynakları hakkında bilgiler içerir.
AB çapında konuşulan tüm dilleri akıcı şekilde konuşabilen yeterli sayıda içerik moderatörüne sahip olmayan platformlar, blok için uzun süredir devam eden bir tartışma konusu oldu. Bugünkü brifing sırasında bir Komisyon yetkilisi bunu, DSA’dan yaklaşık beş yıl öncesine dayanan AB’nin Dezenformasyon Uygulama Kurallarına üye olanlar da dahil olmak üzere platformlarla “sürekli bir mücadele” olarak tanımladı.
Yetkili, AB’nin, Üye Devlet dili başına VLOP’lar/VLOSE’ler tarafından belirli sayıda moderatörün görevlendirilmesini talep etmesi ihtimalinin düşük olduğunu söyledi. Ancak şeffaflık raporlamasının, örneğin göreceli kaynak kullanımındaki bazı “devasa” farklılıkları göstererek “akran baskısı” uygulamak için çalışması gerektiğini öne sürdüler.
Brifing sırasında Komisyon, ilk rapor gruplarından elde edilen bazı karşılaştırmaların altını çizdi; bunlar arasında, platformların bildirdiği AB içerik moderatörlerinin sayısını gösteren bir tablo da yer alıyor; bu da YouTube’u açık ara önde tutuyor (16.974 rapor); onu 7.319 puanla Google Play takip etti; ve TikTok (6.125).
Meta yalnızca 1.362 AB içerik moderatörü rapor ederken, bu rakam Snap’ten (1.545) daha az; veya Elon Musk, X/Twitter’ın sahibiydi (2.294).
Yine de Komisyon yetkilileri erken raporlamanın standart olmadığı konusunda uyardı. (Örneğin Snap’in raporu, içerik denetleme ekibinin “dünya çapında faaliyet gösterdiğini” ve insan denetleme kaynaklarının dökümünün “moderatörlerin dil özelliklerini” gösterdiğini belirtiyor. Ancak bazı moderatörlerin birden fazla dilde uzmanlaştığını belirterek bu konuda uyarıda bulunuyor. Yani , muhtemelen bazı “AB moderatörleri” yalnızca AB kullanıcılarıyla ilgili içeriği yönetmiyor olabilir.)
Bir Komisyon yetkilisi, “Şeffaflığa rağmen hala yapılması gereken bazı teknik çalışmalar var çünkü içerik moderatörünün ne olduğu konusunda herkesin aynı anlayışa sahip olduğundan emin olmak istiyoruz” dedi. “Her platform için aynı olmak zorunda değil. Bir dili konuşmak ne anlama gelir? Aptalca gelebilir ama aslında biraz daha detaylı araştırmamız gereken bir konu.”
Anlamak istediklerini söyledikleri bir diğer unsur da “içerik moderatörlerinin istikrarlı durumunun ne olduğudur” – yani kalıcı bir seviyenin olup olmadığı veya örneğin bir seçim veya kriz olayı için kaynak aranıp çevrilmediği – bunun şu şekilde olduğunu da ekliyorlar: Komisyonun şu anda araştırdığı bir şey.
Komisyon ayrıca X konusunda, platformun içerik denetlemeye yönelik kitle kaynaklı yaklaşımının (diğer adıyla X’in Topluluk Notları özelliği) etkinliği (veya aksi) hakkında herhangi bir açıklama yapmak için henüz çok erken olduğunu söyledi.
Ancak AB yetkilileri, X’in hâlâ bu alandaki politikalarını sürdürme yaklaşımı hakkında daha fazla bilgi edinmek için iletişim halinde oldukları bazı seçim dürüstlük ekiplerine sahip olduğunu söyledi.
Benzeri görülmemiş şeffaflık
Açık olan şey, platformlardan gelen ilk DSA şeffaflık raporları dizisinin yeni soruları gündeme getirdiği ve AB’nin Big Tech’ten aldığı ifşaatların çözümünü bulmaya çalıştığı bir dönemde bir RFI dalgasını tetiklediğidir. Yani RFI’ların telaşı, rejim harekete geçerken ilk açıklamalardaki boşlukları yansıtıyor.
Bunun nedeni kısmen şeffaflık raporlamasının henüz uyumlu hale getirilmemesi olabilir. Ancak Komisyon, bu açıklamalar için raporlama şablonlarını içerecek bir uygulama kanununun (başka bir deyişle ikincil mevzuatın) gelecek yılın başlarında geleceğini onaylamasıyla bu durum değişecek.
Bu, sağlamak zorunda oldukları bilgiler daha standart hale geldikçe ve veriler daha istikrarlı ve öngörülebilir bir şekilde aktıkça, sonuçta platformlara daha az RFI’nin ateşlendiğini görmeyi bekleyebileceğimizi gösteriyor.
Ancak rejimin devreye girmesi ve AB’nin arzuladığı etkiyi yaratması, Büyük Teknolojiyi kullanıcılarla ve daha geniş toplumla daha hesap verebilir ve sorumlu bir ilişki kurmaya zorlaması elbette zaman alacak.
Bu arada RFI’lar DSA’nın çarklarının döndüğünün bir işareti.
Komisyon, platformlar tarafından daha önce hiç kamuya açıklanmadığını iddia ettiği verileri elde etmek için yetkilerini etkin bir şekilde esnettiğini görmek istiyor; örneğin pazar başına içerik denetimi için kaynak sağlama; veya AI denetleme araçlarının doğruluğu hakkındaki veriler. Bu nedenle, düzenleyiciler gözetimlerini derinleştirdikçe ve yeni düzenleme riskine yanıt olarak oluşturulan VLOP/VLOSE sistemlerinin gerçekten “etkili” olup olmadığını doğrulamaya çalıştıkça, platformların önümüzdeki aylarda (ve yıllarda) bu türden çok daha fazla talep almayı beklemesi gerekiyor.
Komisyonun DSA’ya yönelik umudu, zamanla teknoloji devlerinin nasıl çalıştığına dair “benzeri görülmemiş” bir pencere açmasıdır. Ya da bugün yetkililerden birinin söylediği gibi “şeffaflığın yepyeni bir boyutunu” başlatabilirsiniz. Ve bu yeniden başlatma, isteseler de istemeseler de platformların nasıl daha iyi şekilde çalışacağını yeniden yapılandıracak.
“BENBugün bir Komisyon yetkilisi, değişimin halihazırda gerçekleşmekte olduğunu not etmek önemli” dedi. “İçerik denetiminin tüm alanına baktığınızda, artık şeffaflık raporlarıyla birlikte siyah beyaz görüyorsunuz… ve bu, elbette uygulamaya devam edeceğimiz akran baskısıdır. Ancak halk da akran baskısı uygulamaya devam edebilir ve bir dakika bekleyin, örneğin X’in neden diğerleriyle aynı sayıda içerik moderatörüne sahip olmadığını sorabilir?”
Yine bugün, AB yetkilileri henüz resmi bir DSA soruşturması açılmadığını doğruladı. (Yine RFI’lar önümüzdeki haftalarda ve aylarda açılacak olası soruşturmalar için sıralı ve gerekli bir ön adımdır.)
Onaylanan ihlaller için para cezaları veya diğer yaptırımlar açısından uygulama önümüzdeki bahara kadar başlayamazken, resmi uygulama prosedürlerinin gerçekleşebilmesi için tam rejimin işler hale gelmesi gerekiyor. Dolayısıyla DSA’nın önümüzdeki birkaç ayına bilgi toplama hakim olacak; ve – AB, Büyük Teknolojiye ilişkin yeni, daha niceliksel bir anlatıyı şekillendirmek için şeffaflığın gücünü sergilemeyi umuyor.
Bir kez daha, bu cephede şimdiden olumlu değişimler görüldüğünü öne sürüyor. Bu nedenle, teknoloji devleri tarafından gönüllü raporlamada rutin olarak öne sürülen olağan “genel cevaplar ve mutlak sayılar” yerine (yukarıda bahsedilen Dezenformasyon Kodu gibi), RFI’ler, yasal olarak bağlayıcı DSA kapsamında “çok daha fazla kullanılabilir veri ve bilgi” çıkarıyor, Bir Komisyon yetkilisine göre.
“Doğru cevapları alamadığımızı görürsek, [we might] soruşturma açmak, resmi soruşturma açmak; geçici tedbirlere gelebiliriz; Uyum anlaşmalarına varabiliriz” diyen başka bir yetkili, süreci “bireysel adımlardan oluşan bir çığ gibi” tanımladı ve yalnızca en sonunda potansiyel yaptırım kararı ortaya çıkacak” dedi. Ancak aynı zamanda şeffaflığın kendisinin değişim için tetikleyici olabileceğini de vurguladılar ve reformu yönlendirmek için “akran baskısının” gücüne ve “itibar riski” tehdidine işaret ettiler.