Les modérateurs de contenu pour des plates-formes telles que Facebook et Instagram ont parmi les tâches les plus macabres des médias sociaux, la surveillance des contenus illégaux, violents et préjudiciables, souvent par de longs quarts de travail et pour un faible salaire.
Ces travailleurs mènent désormais la charge pour de meilleures conditions de travail, faisant pression sur des plateformes qui ont largement échoué à reconnaître la représentation syndicale formelle.
La semaine dernière, un groupe de travailleurs en Allemagne a rédigé une liste de normes de travail pour la profession, notamment en donnant au personnel le droit de négocier collectivement et d’adhérer à des syndicats ou à des comités d’entreprise.
« Nous sommes convaincus que ce n’est que le début », a déclaré Hikmat El-Hammouri du syndicat allemand Verdi. « De plus en plus de modérateurs de contenu nous rejoignent maintenant et découvrent le pouvoir auquel ils peuvent accéder par le biais des syndicats et des comités d’entreprise.
«Pendant trop longtemps, les grandes entreprises de médias sociaux ont agi comme si elles n’avaient pas à répondre au mouvement ouvrier en Allemagne. Ils sont sur le point de recevoir un grand coup de semonce.
Dans un contexte de pertes d’emplois brutales dans le secteur de la technologie, de nombreux employés ont hésité à exiger de meilleurs droits.
« Les gens ont peur des représailles et craignent, compte tenu des récents licenciements, de ne pas pouvoir s’organiser car cela pourrait avoir un impact sur leur emploi », a déclaré un employé de TikTok.
Mais la détérioration des conditions et l’augmentation du coût de la vie incitent les travailleurs à se dresser contre leurs dirigeants et leurs employeurs.
« Les travailleurs commencent à parler davantage de syndicalisation. . . c’est une illustration que le monde de l’emploi futuriste en rose que les entreprises technologiques ont essayé de projeter a été mis à nu », a déclaré Bruce Daisley, ancien vice-président européen de Twitter devenu consultant sur la culture du lieu de travail.
Cependant, il a averti : « Les suppressions d’emplois croissantes signifient qu’il y a très peu de levier pour que les travailleurs s’organisent ».
Les contrats de travail chez TikTok incluent une clause interdisant aux employés de discuter de leurs salaires entre eux, selon le personnel, ce qu’ils comprennent comme une mesure visant à empêcher un salaire juste et égal.
TikTok a déclaré qu’il soutenait pleinement les droits des employés et se conformait à la « réglementation collective de l’emploi, y compris en ce qui concerne les syndicats ».
Le salaire moyen d’un modérateur de contenu au Royaume-Uni est d’environ 25 000 £ par an, selon le site d’emploi Glassdoor. Les modérateurs de contenu embauchés par des sous-traitants tiers déclarent être payés près du salaire minimum et ont souvent remis les images les plus dérangeantes. Les réseaux sociaux, dont Meta, TikTok et YouTube, font appel à des sous-traitants externes pour mener à bien ce travail.
« Nous sommes traités comme des machines, pas comme des êtres humains », a déclaré un modérateur qui examine le contenu Meta via une société tierce. Il a déclaré avoir souffert de problèmes de santé après avoir été exposé à plusieurs reprises à des contenus terroristes et suicidaires sur les plateformes.
«Je pensais que le travail ne m’affecterait jamais, mais après un certain temps, cela a affecté ma santé mentale. Tout d’abord, c’était beaucoup de mauvais rêves, puis j’ai eu beaucoup de symptômes physiques inquiétants.
Parmi les demandes répertoriées par le collectif des modérateurs allemands figure une demande de soutien indépendant et qualifié en santé mentale pour les modérateurs. Les travailleurs sont parfois invités à signer des décharges, reconnaissant explicitement les risques pour la santé de leur rôle.
Meta a déclaré que les sociétés tierces qu’elle utilise sont tenues de payer au-dessus de la norme de l’industrie et qu’elle les audite deux fois par an. Ces entreprises doivent fournir une assistance sur place 24 heures sur 24 et 7 jours sur 7 avec des praticiens formés et un accès aux soins de santé privés, a ajouté la société.
Un ancien modérateur de TikTok a critiqué le support : « Ils ont des vidéos de yoga et des étirements que vous pouvez faire, [and] des personnes au hasard auxquelles vous pouvez vous adresser et qui ne sont pas correctement qualifiées, et ce n’est même pas confidentiel.
TikTok a déclaré avoir fourni un soutien psychologique à tous les modérateurs de contenu, y compris un soutien indépendant et qualifié en santé mentale.
La façon dont le personnel est surveillé en interne a été un autre problème, les modérateurs de TikTok et Meta disant au FT que leur travail est suivi de près, y compris le nombre de secondes qu’il faut pour examiner chaque élément de contenu.
« Le processus m’a donné mal à la tête car je devais revoir environ 1 000 vidéos par jour », a déclaré l’ancien modérateur de TikTok. « Le système suit chaque seconde de notre activité [and] nous serons jugés sur nos performances. . . privilégiant la rapidité à la qualité.
Un autre ancien modérateur de TikTok a déclaré que même lorsque le contenu était inoffensif, il était très répétitif et conduirait à des chansons virales coincées dans leur tête en permanence, affectant leur sommeil.
Le personnel de Meta et de TikTok a lancé une représentation formelle des travailleurs dans les bureaux en Europe par le biais de comités d’entreprise, des organes juridiquement contraignants qui existent pour les grandes entreprises pour représenter le personnel sur des questions telles que les salaires, les horaires et les conditions de travail.
Franziska, présidente du comité d’entreprise allemand TikTok créé fin 2022, a déclaré avoir négocié le travail à distance jusqu’à trois fois par semaine et un paiement mensuel supplémentaire de 50 € pour le personnel travaillant à domicile.
Elle est globalement positive quant aux mesures que TikTok a introduites pour les modérateurs de contenu, mais estime qu’ils devraient être mieux rémunérés.
« Bien que les sociétés de médias sociaux déclarent que la modération de contenu est la première ligne et l’élément le plus important au sein de ces sociétés, cela ne se reflète pas dans le paiement », a-t-elle déclaré.
«Nous faisons cela pour protéger non seulement les enfants et les utilisateurs de la plate-forme, mais aussi. . . nous protégeons également la liberté d’expression et la démocratie et protégeons les gens contre la désinformation. C’est en fait un rouage très vital dans ce monde qui n’est pas respecté comme il se doit.