Les cauchemars de Daniel, modérateur chez Facebook: « Payé deux dollars de l’heure pour voir l’horreur des réseaux sociaux »

Image

L’écosystème des modérateurs suit les axes du colonialisme, les grandes entreprises comme Meta investissent dans les pays en développement pour recruter une main-d’œuvre pas cher qui est contrainte de regarder l’horreur d’Internet pour moins de deux dollars de l’heure.

Image

Près des bidonvilles, en périphérie de Nairobi, au Kenya, il y a un bâtiment en verre avec un panneau jaune et noir. « Sama source », est écrit dessus. À l’intérieur, plus de 200 employés restent assis pendant des heures devant leurs écrans qui diffusent des suicides, des mutilations, des viols, des abus sur des mineurs. Il est interdit de fermer les yeux, ils doivent tout regarder jusqu’à la fin. Vérifier s’il y a du sang dans la vidéo et étiqueter chaque atrocité de manière précise. Tout cela pour moins de deux dollars de l’heure.

« Quand j’ai lu l’offre d’emploi de Meta, je n’avais aucune idée que je deviendrais un modérateur de contenu. Je venais de me diplômer et je voulais aider ma famille, envoyer un peu d’argent chez moi, alors j’ai accepté ». C’est Daniel Motaung, 32 ans, ancien modérateur, qui parle. En 2019, il décide de postuler chez Sama, qui venait de remporter un contrat pour fournir des services de modération de contenu aux marchés d’Afrique subsaharienne de Facebook.

Ils l’embauchent, il quitte son domicile et déménage au Kenya. Et puis il entre dans « l’usine de l’horreur ». « Nous travaillions jour et nuit, il y avait des gens qui s’évanouissaient dans les bureaux, mes collègues prenaient des drogues pour essayer d’oublier ce que nous voyions. Personne ne pouvait plus dormir », raconte Motaung à Netcost-security.fr. Il décide de créer un syndicat pour demander plus de protections et de droits, mais lorsqu’il présente sa demande à l’entreprise, il est licencié, accusé d’avoir mis en danger la relation entre Sama et Facebook.

Recruter des modérateurs au Kenya est avantageux pour Meta car le coût de la main-d’œuvre est très bas. Ce n’est pas un hasard s’il y a des centres de modération qui suivent les anciens axes de pouvoir colonial. Loin de l’Europe, des États-Unis et enracinés dans les pays en développement.

Je me suis récemment diplômé, c’était en 2019, et j’ai vu cette annonce de Sama. Je voulais aider ma famille, je n’ai pas vraiment compris en quoi consistait le travail. Je ne m’attendais pas à devenir un modérateur de contenu et à ce que plus rien ne soit pareil depuis ce moment-là.

Je suppose que tu l’as découvert une fois arrivé.

Exactement, j’ai compris que mon travail consisterait à regarder pendant des heures les contenus les plus atroces publiés sur Facebook et à les bloquer.

Comment était l’environnement de travail ?

Terrible. Nous étions exploités, ils voulaient prendre tout ce qu’ils pouvaient en nous donnant le moins possible. C’était aussi un environnement dangereux, sans protections. Et si vous essayiez de vous plaindre, vous n’en sortiez pas indemne.

Explique-toi mieux.

Lorsque j’ai décidé de fonder un syndicat pour demander de meilleures conditions de travail, j’ai été licencié. On m’a dit que j’avais fait signer mes collègues de force et que j’avais mis en danger la relation entre Sama et Meta.

Te souviens-tu de la première vidéo que tu as vue ?

Je ne l’oublierai jamais. Il y avait une femme avec un t-shirt jaune et un jean, des shorts. À côté d’elle, un homme avec un masque, à un moment donné il lui coupe la tête. Pourquoi ? Je ne sais pas, je me le demande encore maintenant.

Difficile.

Oui, et puis les autres sont arrivés, les sacrifices humains, les fusillades, les personnes qui se jetaient du dernier étage ou qui étaient tuées avec une machette. Voir des membres amputés ou des os brisés en deux était monnaie courante. Et ce n’était pas le pire…

As-tu eu des séquelles psychologiques ?

J’ai développé un trouble de stress post-traumatique. Je n’arrivais plus à dormir la nuit, quand je m’endormais, j’avais des cauchemars, je me réveillais soudainement en sueur, effrayé.

Que rêvais-tu ?

Des vidéos, mais souvent j’étais le protagoniste, je devenais la victime. Il m’arrivait aussi d’avoir des flashbacks en étant éveillé. Peut-être que j’étais assis, que je ne faisais rien et que ces images revenaient.

Et comment cela a-t-il affecté ta vie ?

J’ai commencé à être obsédé par la mort, je la voyais partout, j’avais l’impression de pouvoir mourir de toutes les manières, à tout moment. Et en effet, je ne sortais plus, le monde extérieur était devenu dangereux. À chaque fois que quelqu’un s’approchait de moi, je pensais « maintenant, il sortira un pistolet et me tirera dessus ».

Et maintenant ?

J’ai toujours des rechutes. Ce n’est pas simple. On m’a diagnostiqué un trouble de stress post-traumatique et des épisodes dépressifs. Certains jours vont bien, d’autres j’ai de l’anxiété et je revis tout.

Et tes collègues, comment vont-ils ?

Mon cas n’est pas exceptionnel, le trouble de stress post-traumatique était répandu. Beaucoup de mes collègues ont commencé à prendre des drogues. Beaucoup fumaient de la marijuana pour essayer d’oublier les vidéos qu’ils voyaient toute la journée. Moi-même, je buvais pour ne pas y penser. Et tu sais, à un moment donné, tu voulais prendre n’importe quoi qui pourrait chasser ces images de ta tête et te donner un peu de paix. Beaucoup de collègues s’évanouissaient pendant leur travail, je me souviens de cinq collègues qui ont fini à l’hôpital.

Mais aviez-vous un support psychologique ?

Non, aucun. On nous faisait faire des « séances de bien-être », en gros des jeux en équipe et des discussions avec ces consultants en bien-être, qui n’étaient pas des psychologues qualifiés ou des thérapeutes. C’étaient plus des animateurs.

Que faisiez-vous lors de ces séances bien-être ?

Comme je le disais, des jeux, des activités de renforcement d’équipe. Rien qui puisse vraiment aider à faire face aux traumatismes d’un tel travail. L’aide dont nous avions vraiment besoin ne nous a pas été accordée.

Combien vous payaient-ils ?

Il y avait deux catégories de salaires. Les étrangers recevaient environ 60 000 shillings kenyans (528 dollars), ce qui comprenait une prime mensuelle pour leur transfert. En tenant compte des impôts, cela équivalait à environ 440 dollars par mois, soit environ 2 dollars de l’heure. Les employés kényans, qui ne recevaient pas de prime de transfert, étaient quant à eux payés 1,45 dollar de l’heure.

Et combien d’heures travailliez-vous ?

Nous avions une semaine de travail de 45 heures. Donc environ 9 heures par jour, mais en réalité, nous devions traiter toute la file d’attente de vidéos avant de finir. De plus, les contenus doivent être modérés 24 heures sur 24 et les horaires étaient très irréguliers. Nous devions parfois travailler toute une nuit, puis encore le jour suivant. Ou bien des semaines entières uniquement le jour ou uniquement la nuit.

Quels types de contenus modériez-vous, aviez-vous une spécialité ?

C’est une question intéressante, vous êtes la première à me la poser et je suis ravi de vous répondre car j’ai toujours pensé que c’était l’un des principaux problèmes. Il n’y a pas de spécialistes, nous devions modérer un peu de tout. Incitation à la haine, violences sur les mineurs, abus, suicides. Il serait beaucoup plus juste de diviser par domaines de compétence, cela nous permettrait de mieux travailler.

Et en ce qui concerne la langue ?

Même problème. J’ai été embauché pour modérer des contenus en langue zouloue, mais en réalité, j’ai été contraint de modérer dans de nombreux autres dialectes africains, et c’est un problème car il est souvent difficile de saisir la signification, même métaphorique, de certaines phrases, de certains termes. C’est d’ailleurs pour cette raison que parfois nous ne bloquions pas les choses qui auraient dû l’être.

Parle-moi de l’Alliance, le syndicat que tu as fondé.

C’est un sujet très triste et délicat pour moi. À l’heure actuelle, pendant que nous parlons, il n’y a pas de syndicat. Il a échoué, j’essaie d’en créer un autre, mais c’est très difficile, car Facebook a beaucoup de contrôle et cherchera toujours à en avoir. L’objectif maintenant est d’en faire un mouvement mondial pour les modérateurs de contenu, appelé Safe Content Advocacy Network (SCAN), nous essayons de transformer l’écosystème de la modération de contenu en le professionnalisant et en créant une communauté de support pour les modérateurs.

Dans votre procès, vous avez accusé Meta de trafic d’êtres humains. Pouvez-vous m’expliquer cela plus en détail ?

Bien sûr, lorsque j’ai répondu à l’offre d’emploi, je n’avais aucune idée que j’allais faire ce travail. Je suis déménagé d’Afrique du Sud à Nairobi pour travailler chez Sama, j’étais tout juste diplômé et je voulais aider ma famille.

Et qu’est-ce qui était écrit dans l’annonce ?

C’était très vague, conçu pour tromper les candidats ignorants et les faire devenir inconsciemment des modérateurs de contenu pour Facebook. Et ils se sont retrouvés quelques mois plus tard à souffrir de troubles de stress post-traumatique. Selon la loi kényane, cela équivaut à du trafic d’êtres humains.

Comment se passe votre bataille juridique ?

C’est long et difficile, Facebook est une entreprise multinationale qui fait tout pour retarder ce processus. Nous en sommes encore aux questions préliminaires. Et nous ne parlons même pas des accusations de trafic d’êtres humains et des autres questions soulevées dans la pétition. Et puis il y a un autre problème.

Lequel ?

Facebook n’est pas une entreprise kényane et n’est donc pas soumise à la loi du pays.

La question que je me pose est : si les modérateurs de contenu sont traumatisés ou souffrent de troubles en raison des conditions dans lesquelles ils vivent, comment peuvent-ils bien faire leur travail ?

Exactement, et pensez que c’est très important de bien le faire, car les modérateurs bloquent les contenus violents et dangereux. S’ils ne vont pas bien, ils ne peuvent pas faire correctement leur travail et cela crée un système défectueux. Prendre soin des travailleurs de ce secteur est un moyen de garantir la sécurité des utilisateurs.

Dans tout cela, quel pourrait être le rôle de l’intelligence artificielle ?

Elle ne peut pas remplacer les êtres humains, il y aurait des problèmes d’ordre éthique. Il est donc essentiel de résoudre le problème des modérateurs humains.

Que faudrait-il faire maintenant ?

Ce n’est pas simple, mais les choses doivent changer. Tout d’abord, il faut réunir les travailleurs et amener les médias sociaux à discuter pour changer la manière de travailler. Ce n’est pas simple, car pour les entreprises, c’est évidemment économiquement défavorable.

Quelles sont les chances que cela se produise ?

Faibles, cela nécessite des financements, et ce n’est pas facile. Nous devons nous battre, sinon la plupart d’entre nous pourra seulement dire qu’ils n’ont rien obtenu dans la vie à part la souffrance et la douleur de la modération de contenu.