Los moderadores de contenido de las redes sociales lideran la carga por mejores derechos


Los moderadores de contenido para plataformas como Facebook e Instagram tienen algunas de las tareas más espeluznantes en las redes sociales, vigilando el contenido ilegal, violento y dañino, a menudo durante largos turnos y por bajos salarios.

Estos trabajadores ahora lideran la lucha por mejores condiciones de trabajo, ejerciendo presión sobre plataformas que en gran medida no han reconocido la representación sindical formal.

La semana pasada, un grupo de trabajadores en Alemania redactó una lista de estándares laborales para la profesión, que incluye otorgar al personal el derecho a negociar colectivamente y afiliarse a sindicatos o comités de empresa.

“Confiamos en que esto es solo el comienzo”, dijo Hikmat El-Hammouri del sindicato alemán Verdi. “Cada vez más moderadores de contenido se unen a nosotros y aprenden sobre el poder al que pueden acceder a través de sindicatos y comités de trabajo.

“Durante demasiado tiempo, las grandes empresas de redes sociales han actuado como si no tuvieran que responder ante el movimiento laboral en Alemania. Están a punto de recibir una gran llamada de atención”.

En un contexto de pérdidas brutales de puestos de trabajo en todo el sector de la tecnología, muchos miembros del personal se han mostrado reacios a exigir mejores derechos.

“La gente teme las represalias y, dados los despidos recientes, les preocupa no poder organizarse, ya que podría afectar su empleo”, dijo un empleado de TikTok.

Hikmat El-Hammouri del sindicato alemán Verdi: ‘Las grandes empresas de redes sociales han actuado como si no tuvieran que responder ante el movimiento laboral en Alemania. Están a punto de recibir una gran llamada de atención’ © Christian von Polentz

Pero el empeoramiento de las condiciones y el aumento del costo de vida están incitando a los trabajadores a enfrentarse a sus gerentes y empleadores.

“Los trabajadores están empezando a hablar más sobre la sindicalización. . . es una ilustración de que el mundo optimista y futurista del empleo que las empresas tecnológicas intentaron proyectar ha quedado al descubierto”, dijo Bruce Daisley, ex vicepresidente europeo de Twitter convertido en consultor sobre cultura laboral.

Sin embargo, advirtió: “Los crecientes recortes de empleos significan que hay muy poca influencia para que los trabajadores se organicen”.

Los contratos de trabajo en TikTok incluyen una cláusula que prohíbe a los empleados discutir sus salarios entre ellos, según el personal, lo que entienden como una medida para evitar un pago justo y equitativo.

TikTok dijo que apoyaba plenamente los derechos de los empleados y cumplía con la “regulación de empleo colectivo, incluso en relación con los sindicatos”.

El salario medio de un moderador de contenido en el Reino Unido es de unas 25.000 libras esterlinas al año, según el sitio web de empleo Glassdoor. Los moderadores de contenido contratados por contratistas externos informan que se les paga cerca del salario mínimo y, a menudo, les entregan las imágenes más perturbadoras. Las redes sociales, incluidas Meta, TikTok y YouTube, contratan a contratistas externos para realizar este trabajo.

“Estamos siendo tratados como máquinas, no como seres humanos”, dijo un moderador que revisa el contenido de Meta a través de una empresa externa. Dijo que sufría problemas de salud después de la exposición repetida a contenido terrorista y suicida en las plataformas.

“Pensé que el trabajo nunca me afectaría, pero después de un tiempo, afectó mi salud mental. En primer lugar, fueron muchos malos sueños y luego tuve muchos síntomas físicos perturbadores”.

Entre las demandas enumeradas por el colectivo de moderadores alemanes se encuentra una solicitud de apoyo de salud mental independiente y calificado para los moderadores. A veces se pide a los trabajadores que firmen renuncias, reconociendo explícitamente los riesgos para la salud de su función.

Meta dijo que las empresas de terceros que utiliza deben pagar por encima del estándar de la industria y que las audita dos veces al año. Estas empresas deben brindar asistencia in situ las 24 horas del día, los 7 días de la semana con profesionales capacitados y acceso a atención médica privada, agregó la empresa.

Un exmoderador de TikTok criticó el apoyo: “Tienen videos de yoga y estiramientos que puedes hacer, [and] personas aleatorias a las que puedes acudir que no están debidamente calificadas, y ni siquiera es confidencial”.

TikTok dijo que brindó apoyo psicológico a todos los moderadores de contenido, incluido apoyo de salud mental independiente y calificado.

La forma en que se monitorea internamente al personal ha sido otro problema, ya que los moderadores de TikTok y Meta le dicen al FT que su trabajo se rastrea de cerca, incluido cuántos segundos lleva revisar cada contenido.

“El proceso me dio dolor de cabeza porque tenía que revisar aproximadamente 1000 videos por día”, dijo el exmoderador de TikTok. “El sistema está rastreando cada segundo de nuestra actividad [and] seremos juzgados por nuestro desempeño. . . priorizando la velocidad sobre la calidad.”

Otro exmoderador de TikTok dijo que incluso cuando el contenido era inocuo, era muy repetitivo y provocaba que las canciones virales se quedaran en su cabeza constantemente, lo que afectaba su sueño.

El personal de Meta y TikTok ha lanzado la representación formal de los trabajadores en las oficinas de Europa a través de los comités de empresa, órganos legalmente exigibles que existen para que las empresas más grandes representen al personal en asuntos que incluyen salarios, horarios y condiciones de trabajo.

Franziska, presidenta del comité de empresa alemán de TikTok establecido a fines de 2022, dijo que había negociado trabajar de forma remota hasta tres veces por semana y un pago mensual adicional de 50 € para el personal que trabaja desde casa.

En general, es positiva sobre las medidas que TikTok ha introducido para los moderadores de contenido, pero cree que deberían tener una mejor paga.

“Aunque las empresas de redes sociales afirmarán que la moderación del contenido es la primera línea y el elemento más importante dentro de estas empresas, no se refleja en el pago”, dijo.

“Hacemos esto para proteger no solo a los niños y los usuarios de la plataforma, sino también. . . también estamos protegiendo la libertad de expresión y la democracia y protegiendo a las personas de la desinformación. De hecho, es un engranaje muy vital en este mundo que no se respeta como debería».



ttn-es-56