Kenya’nın etnik uyum gözlemcisi Ulusal Uyum ve Entegrasyon Komisyonu (NCIC), Facebook’a platformunda nefret söyleminin yayılmasını yedi gün içinde durdurması veya Doğu Afrika ülkesinde askıya alınması yönünde talimat verdi.
Bekçi köpeği tepki veriyordu bildiri savunuculuk grubu Global Witness ve Facebook’un nefret söylemi reklamlarını tespit edememesine parmak basan kar amacı gütmeyen yasal bir şirket olan Foxglove tarafından. Bu, ülkenin ulusal genel seçimleri yaklaşımı olarak geliyor.
Global Witness raporu, NCIC’in Facebook’un ana şirketi Meta’nın nefret içerikli içeriği kaldırma ve önleme konusunda yavaş davrandığı ve zaten değişken bir siyasi ortamı körüklediği yönündeki kendi bulgularını doğruladı. NCIC şimdi Meta’ya seçimlerden önce, seçimler sırasında ve sonrasında ılımlılığı artırma çağrısında bulunurken, buna uyması veya ülkede yasaklanması için bir hafta süre verdi.
“Facebook ülkemizin yasalarını ihlal ediyor. Nefret söylemi ve kışkırtma, yanlış bilgilendirme ve dezenformasyonun vektörü olmalarına izin verdiler” dedi. söz konusu NCIC komiseri Danvas Makori.
Global Witness ve Foxglove ayrıca Meta’yı siyasi reklamları durdurmaya ve 2020 ABD seçimleri sırasında yanlış bilgilendirmeyi ve sivil huzursuzluğu önlemek için kullandığı daha katı acil durum moderasyon yöntemleri olan “cam kırma” önlemlerini kullanmaya çağırdı.
Facebook’un AI modelleri şiddet çağrılarını tespit edemiyor
Facebook’un yapay zeka modellerinin nefret söylemini algılayabildiği iddiasını test etmek için Global Witness, İngilizce ve Swahili dilinde şiddet ve kafa kesme çağrısında bulunan 20 reklam gönderdi ve bunlardan biri hariç tümü onaylandı. İnsan hakları grubu, gönderilerin aksine daha sıkı bir inceleme ve denetleme sürecinden geçtiği için reklam kullandığını söylüyor. Facebook ekibi, reklamlar yayınlanmadan önce de yayından kaldırabilir.
“Gönderdiğimiz tüm reklamlar, Facebook’un topluluk standartlarını ihlal ediyor, nefret söylemi ve etnik temelli şiddet çağrıları olarak nitelendiriliyor. Global Tanık, yaptığı açıklamada, konuşmanın çoğu insanlıktan çıkarıcı, belirli kabile gruplarını hayvanlarla karşılaştırdı ve tecavüz, katliam ve kafa kesme çağrısında bulundu” dedi.
Bulguların ardından Global Witness’ın Demokrasiye Yönelik Dijital Tehditleri Kampanyası’nın lideri Ava Lee, “Facebook’un demokrasileri kurma veya yıkma gücü var ve yine de şirketin kârları insanlardan daha öncelikli hale getirdiğini defalarca gördük” dedi.
“Kenya seçimlerinden önce sistemlerini iyileştireceğini ve kaynakları artıracağını iddia ettikten sonra bile, hala etnik şiddete yönelik açık çağrıları onayladığını keşfetmek bizi dehşete düşürdü. Bu bir seferlik değil. Son birkaç ayda Myanmar ve Etiyopya’da da aynı yetersizliği gördük. Facebook’un Kenya’daki seçimler ve Brezilya’dan ABD ara seçimlerine kadar dünyanın dört bir yanındaki diğer yaklaşan seçimler etrafında hareketsiz kalmasının olası sonuçları ürkütücü.”
Diğer önlemlerin yanı sıra, Global Witness, Facebook’u içerik denetimini ikiye katlamaya çağırıyor.
Buna karşılık, sosyal medya devi, yanlış bilgilendirmeyi ve zararlı içeriği durdurmak için insanlara ve teknolojiye yatırım yaptığını söylüyor.
BT söz konusu “Svahili dahil olmak üzere 70’den fazla dilde uygulamalarımızdaki içeriği incelemek için daha fazla içerik inceleme uzmanı tuttu.” 30 Nisan’a kadar altı ay içinde şirket, nefret söylemi politikalarını ihlal eden 37.000’den fazla içeriği ve Facebook ve Instagram’da şiddeti ve kışkırtmayı teşvik eden 42.000’den fazla içeriği kaldırdığını bildirdi.
Meta, TechCrunch’a, “Facebook ve Instagram’ın sivil katılım için nasıl olumlu bir araç olabileceğini ve platformlarımızı kullanırken güvende kalmak için atabilecekleri adımları” görmek için seçim komisyonları ve sivil toplum kuruluşları gibi sivil paydaşlarla da yakın çalıştığını söyledi.
Twitter ve son zamanlarda TikTok gibi diğer sosyal ağlar da içeriğin moderasyonunda daha proaktif bir rol oynamadığı ve ülkedeki siyasi gerilimi körüklediği algılanan nefret söyleminin yayılmasını engellediği için dikkat çekiyor.
Daha geçen ay, Mozilla Vakfı’nın bu çalışmasıyla TikTok’un Kenya’da dezenformasyonu körüklediği tespit edildi. Mozilla, TikTok’un nefret söylemi ve ayrımcı, kışkırtıcı ve sentetik içerik paylaşımına karşı politikasıyla çelişen nefret söylemi, kışkırtma ve siyasi dezenformasyonla dolu içeriği paylaşan 130 çok izlenen videoyu inceledikten sonra sonuca ulaştı.
TikTok davasında Mozilla, içerik moderatörlerinin ülkenin siyasi bağlamına aşina olmamalarının, sosyal uygulamada dezenformasyonun yayılmasına izin vererek bazı kışkırtıcı gönderilerin kaldırılmamasının önde gelen nedenlerinden biri olduğu sonucuna vardı.
Sosyal medya platformlarının daha katı önlemler alması yönündeki çağrılar, 9 Ağustos’ta yapılacak anketlere yaklaşırken hem siyasilerden hem de vatandaşlardan gelen hararetli siyasi tartışmalar, farklı görüşler ve açıkça nefret söylemleri olarak geliyor.