'İnsanların Yüzünden Vurulduğunu Görürdüm:' başlıklı makalenin resmi  TikTok Eski Moderatörleri İş Başında Travma Davası Açtı

resim: Martin Bürosu (Getty Resimleri)

Aşırı çalışan içerik moderatörlerinden oluşan küçük bir ordu, sosyal medyaya yüklenen ahlaksız ve korkunç içerik seline karşı halkın son savunma hattıdır. Moderatörler, normal kullanıcıların en kötünün en kötüsünden kaçınmamıza yardımcı olurken, insanlığın en karanlık dürtülerine sürekli maruz kalmak onların üzerinde hasara yol açabilir. akıl sağlığı. Şimdi, TikTok’taki iki eski moderatör, hızla büyüyen sosyal medya devinin, bir dijital kabus saldırısıyla başa çıkmak için mücadele eden moderatörler için zihinsel sağlık tedavisinden yoksun olduğunu iddia ediyor.

Biri, “İnsanların suratından vurulduğunu görürdüm” dedi. röportaj yapmak NPR ile. “Ve dövülen bir çocuğun başka bir videosu beni iki saat boyunca ağlattı.”

bu davaPerşembe günü dosyalanan, TikTok ve ana şirketi ByteDance’in, moderatörlerin görüntülere maruz kalmanın neden olduğu duygusal travmadan yeterince korunmasını sağlamayarak Kaliforniya iş yasalarını ihlal ettiğini iddia ediyor. Davaya göre moderatörler, “uygulamaya yüklenen filtrelenmemiş, iğrenç ve rahatsız edici içerik ile uygulamayı her gün kullanan yüz milyonlarca insan arasındaki kapı bekçileri” olarak hareket ediyor. Dava, özellikle TikTok’u ihmal, elde tutulan kontrolün ihmalkar bir şekilde uygulanması ve Kaliforniya’nın Haksız Rekabet yasasını ihlal etmekle suçluyor.

“Davalılar [TikTok and ByteDance] grafik ve sakıncalı içeriği izlemenin moderatörler üzerindeki olumsuz psikolojik etkilerinin farkındalar”, diyor dava. “Buna rağmen, sanıklar moderatörleri zarardan korumak için kabul edilmiş bakım standartlarını uygulamakta başarısız oluyorlar.”

Şimdiye kadar, içerik moderatörlerinin bazı korkunç materyallerle etkileşime girmeleri gerekmiyor, ancak dava, TikTok’u denetlemenin aslında diğer platformlardan daha kötü olduğunu iddia ediyor. Diğer firmalar, görüntüleri bozmak için filtreleme teknolojisini kullanmak veya moderatörler için zorunlu danışmanlık sağlamak gibi endüstri grupları tarafından önerilen bazı zarar azaltma çabalarını uygulamaya koyarken, davaya göre TikTok bunu yapmıyor. Davacılarla sonuçlandı [the moderators] İddiaya göre, sansürlenmemiş şiddet, cinsel saldırı ve çocuk pornografisi de dahil olmak üzere binlerce sansürlenmemiş ve sakıncalı videoya maruz kalmak”.

Eski TikTok moderatörleri Ashley Velez ve Reece Young, uygun zihinsel sağlık tedavisini rahatlatmadıklarını ve bunun da güvenli olmayan bir çalışma ortamına yol açtığını iddia ediyor. İki moderatör, internetteki en korkunç şeylerin bir çamaşırhane listesine maruz kaldıklarını iddia ediyor: Çocuk pornografisi, tecavüz, hayvanlarla cinsel ilişki, cinayet, kafa kesme ve intihar videoları masalarını geçti.

Young, 13 yaşındaki bir kızın bir kartel üyesi tarafından kamera önünde infaz edildiğine tanık olduğunu bildirdi. Velez, NPR’ye, maruz kaldığı rahatsız edici içeriğin büyük çoğunluğunun reşit olmayan çocukları içeren görüntüleri ve videoları oluşturduğunu söyledi. NPR’ye konuşan Velez, “Birisi acı çekmeli ve bu şeyleri görmeli, böylece başka kimse yaşamamalı” dedi.

Dava, işçilere uygulanan üretkenlik kotalarının talep edilmesinin “geçerli bakım standartlarıyla bağdaşmaz” olduğunu iddia ediyor.

Davaya göre, moderatörlere videoları 25 saniyeden uzun süre incelememeleri ve belirli bir videonun TikTok kurallarını ihlal edip etmediği konusunda %80’den fazla doğrulukla karar vermeleri söyleniyor. Davacılar, bu 25 saniye içinde, moderatörlerin sorunlu içeriği etiketlemek için potansiyel olarak uygulanabilecek 100 olası etiketi düşünmesi ve düşünmesi gerektiğini söyledi. Takım, moderatörlerin bir saat öğle yemeği molası ve iki on beş dakikalık mola ile 12 saatlik bir vardiya çalıştığını söyledi.

TikTok moderatörlerini temsil eden avukatlardan biri olan Steven Williams yaptığı açıklamada, “Sosyal medya gönderilerini sakıncalı içerik açısından tarayarak, içerik moderatörleri ahlaksızlığa karşı savaşta ön saflardaki askerlerimizdir: hepimizin kazanmasında pay sahibi olduğumuz bir savaş” dedi. “Bu işçilerin karşılaştığı psikolojik travma ve bilişsel ve sosyal bozukluklar ciddi. Ancak görmezden geliniyorlar ve sorunlar daha da kötüleşecek – şirket ve bu kişiler için.”

TikTok, Gizmodo’nun yorum talebine yanıt vermedi.

Austin, Teksas - 5 Mart: İçerik moderatörleri Austin, Teksas'taki bir Facebook ofisinde çalışıyor.

Austin, Teksas – 5 Mart: İçerik moderatörleri Austin, Teksas’taki bir Facebook ofisinde çalışıyor.
Fotoğraf: Washington post (Getty Resimleri)

Dava, bu dijital terör dağının yanı sıra, moderatörlerin düzenli olarak, özellikle Covid-19 hakkında, avukatlarının da travmatik tepkilere yol açtığını iddia ettiği, komplo teorileri ve yanlış bilgilendirme sellerine maruz kaldıklarını iddia ediyor.

Velez ve Young’ın sırasıyla Telus International ve Atrium Staffing Services şirketleri aracılığıyla çalışan yükleniciler olduğunu belirtmekte fayda var. Her iki moderatör de teknik olarak ayrı şirketler için çalışıyor olsa da, dava, kotaları belirleyen, işçileri izleyen ve disiplin cezalarından sorumlu olanın kendisi olduğunu öne sürerek TikTok ve ByteDance’i sorumlu tutmaya çalışıyor. Bir Telus International sözcüsü NPR’ye müteahhitler için zihinsel sağlık danışmanlığı sağladıklarını söylese de, Velez bunun son derece yetersiz olduğunu iddia ediyor. Moderatör, diğer sıkıntılı moderatörlerin istekleriyle dolup taşan bir danışmanla sadece 30 dakikalık bir toplantı yaptığını söyledi.

Dava yoluyla, moderatörlerin avukatları, Velez ve Young için maddi tazminat kazanmayı ve TikTok’a binlerce mevcut ve eski içerik moderatörüne zihinsel sağlık taraması ve tedavisi sağlaması için baskı yapmayı umuyor. Gizmodo, yorum için firmaya ulaştı ancak geri dönüş olmadı.

Moderatörler, rakip teknoloji firmalarındaki diğer birçok moderatörde olduğu gibi, imzalamaları gerektiğini iddia etti. ifşa etmeme anlaşmaları gördükleri görüntüleri tartışmalarını engelliyor. İnsanlığın en karanlık girintilerinden geçen bir günün ardından, işçiler bu hikayeleri gömmek zorunda kalıyorlar, onlar hakkında arkadaşlarıyla ve hatta aileleriyle konuşamıyorlar.

NPR’ye verdiği demeçte Velez, “O kadar çok insan gördüler ki, acı çektiğiniz şey konusunda size gerçekten yardım etmek için zamanları varmış gibi görünmüyordu” dedi.

TikTok, diğer büyük içerik sağlayıcılar gibi, dağıtır sorunlu içeriğin büyük kısmını yakalamak için yapay zeka, sitelerine yüklenen potansiyel olarak zararlı içeriğin çılgınca akışı, insan moderatörlerin vazgeçilmez kalması anlamına geliyor. Bu moderatörler, genellikle, teknoloji şirketlerinde çalışan işçilerden daha az iş güvenliği ve daha az fayda ile daha düşük ücretle çalışan bağımsız yüklenicilerdir.

Texas Üniversitesi ve St. Mary’s Üniversitesi’nden araştırmacılar, bir kağıt geçen yıl içerik moderatörleri hakkındaki akademik literatürü kronikleştirdi ve zararlı içeriğe tekrar tekrar maruz kalmanın TSSB ve diğer psikolojik zararlara yol açtığına dair yeterli kanıt buldu.

Araştırmacılar, “Denetleme çalışmasının tatsız olması beklenebilirken, belirli bir içeriğe tekrar tekrar, uzun süreli maruz kalmanın sınırlı işyeri desteği ile birleştiğinde, insan moderatörlerin psikolojik refahını önemli ölçüde bozabileceği bugün kabul edilmektedir.”

Diğer durumlarda, Youtube ve Facebook’taki moderatörler bildirildiğine göre içeriğe tekrar tekrar maruz kaldıktan sonra akut anksiyete ve depresyon nedeniyle hastaneye kaldırıldı. Ve ne yazık ki herkes için internet daha az boka batmıyor. Daha bu hafta Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi dedim Geçen yıl internetten 29,3 milyon çocuk cinsel istismarı materyali kaldırıldı. Bu bir rekor ve bir yıl önce kaldırılan malzeme miktarına göre %35’lik bir artış.

Teknoloji endüstrisindeki içerik moderatörlerini rahatsız eden zihinsel sağlık mücadeleleri, son yıllarda ortaya çıkan açıklayıcı raporlar ve diğer yasal işlemler sayesinde kamuoyunun dikkatini çekti. Çok sayıda medya kuruluşu, moderatörler için genellikle şok edici çalışma ortamlarını belgelemiştir. Facebook ve Youtubeancak TikTok moderatörleri hakkında karşılaştırılabilir çok az şey yazıldı.

Facebook’tan iki yıl önce yerleşmiş Binlerce moderatör tarafından 52 milyon dolarlık bir dava açıldı. Velez ve Young’ı temsil eden aynı hukuk firması, Facebook moderatörlerini de temsil etti. Bu uzlaşma, işi sırasında tecavüz, intihar ve cinayet vakalarını gördükten sonra TSSB geliştirdiğini iddia eden Facebok moderatörü Selena Scola tarafından 2018 yılında açılan bir davadan kaynaklandı. 52 milyon dolarlık anlaşma, her biri en az 1000 dolarlık tazminat alan binlerce sözleşme arasında dağıtıldı. Ayrıca eski bir Youtube içerik moderatörü dava açmak 2020’de işvereni, kafa kesmeleri ve çocuk istismarı görüntülerini izledikten sonra depresyon ve TSSB ile ilişkili semptomlar geliştirdiğini iddia etti. Sadece en hızlılarından biri olan TikTok’a uyuyor. büyüyen çevrimiçi sosyal medya siteleri de kendisini davaların alıcı tarafında bulacaktır.



genel-7

Bir yanıt yazın