"Pas un métier pour des humains": au Kenya, la quête de reconnaissance des modérateurs pour Facebook
Trevin Brownie n'a pas oublié son premier jour en tant que modérateur de contenus pour Facebook, dans les locaux d'une société sous-traitante basés dans la capitale kényane Nairobi.
"Ma première vidéo, c'était un homme qui se suicidait. (...) Il y avait un enfant de deux ou trois ans qui jouait à côté. Après que l'homme s'est pendu, au bout d'environ deux minutes, il comprend que quelque chose ne va pas", raconte ce Sud-Africain de 30 ans, avant de décrire comment l'enfant tente de sauver cet homme, son père.
"Ça m'a rendu malade. (...) C'était comme des nausées, des vomissements. Mais j'ai continué à faire mon travail", poursuit-il.
Entre 2020 et 2023, il a visionné chaque jour des centaines de vidéos violentes, appelant à la haine et les a bloquées pour qu'elles n'arrivent pas devant les yeux des utilisateurs de Facebook.
Il travaillait à Nairobi pour Sama, société californienne à qui Meta - maison-mère de Facebook, d'Instagram et WhatsApp - a sous-traité entre 2019 et 2023 la modération des contenus Facebook pour l'Afrique subsaharienne.
Dans ce "hub" continental, des centaines de modérateurs venus de divers pays africains ont opéré, après avoir été recrutés notamment pour leurs connaissances des langues locales.
Trevin Brownie dit avoir vu "des centaines de décapitations", "des organes arrachés de corps", des "viols et de la pédopornographie jusqu'au dernier niveau", "des enfants soldats se préparer à la guerre"...
"Les humains font des choses à d'autres humains que je n'aurais jamais imaginées", lâche-t-il: "Les gens n'ont aucune idée des vidéos malsaines (...) auxquelles ils échappent".
- Bataille judiciaire -
Trevin Brownie est partie prenante dans l'une des trois affaires visant Meta et Sama, anciennement connu sous le nom de Samasource, au Kenya.
Avec 183 anciens employés, il conteste son licenciement par Sama, qui a annoncé cesser son activité dans la modération de contenus. Ils demandent compensation pour des salaires "insuffisants et sans commune mesure avec (...) le risque auquel ils étaient exposés" ainsi que pour les "dommages causés à leur santé mentale".
Cette offensive judiciaire a été initiée par le dépôt d'une plainte en mai 2022 devant un tribunal de Nairobi par un autre ancien modérateur de contenus chez Sama, Daniel Motaung, dénonçant notamment des conditions de travail "inhumaines", des méthodes d'embauches trompeuses, des rémunérations insuffisantes et un manque de soutien psychologique.
Meta, qui n'a pas souhaité commenté le détail des affaires, a notamment assuré à l'AFP exiger de ses sous-traitants qu'ils fournissent une assistance psychologique, disponible 24h/24 et 7j/7.
Contacté par l'AFP, Sama a indiqué "ne pas être en mesure" de commenter les affaires en cours.
- Centres d'appel -
Des témoignages recueillis fin avril par l'AFP auprès d'anciens modérateurs de contenus de Sama - qui figurent parmi les 184 plaignants contestant leurs licenciements - confirment des faits reprochés par Daniel Motaung.
Deux d'entre eux, Amin et Tigist (les prénoms ont été changés), embauchés en 2019 par Sama, ont affirmé avoir répondu à des propositions pour travailler dans des centres d'appels qui leur avaient été transmises par des connaissances ou des sociétés de recrutement.
Ils n'ont découvert qu'une fois signés leurs contrats - assortis de clauses de confidentialité - qu'ils allaient travailler en tant que modérateur de contenus.
Amin et Tigist n'ont pas contesté, ni même pensé à partir. "Je n'avais aucune idée de ce qu'était un modérateur de contenus, je n'en avais jamais entendu parler", raconte Tigist, Éthiopienne recrutée pour sa connaissance de la langue amharique.
"La plupart d'entre nous ne connaissaient pas la différence entre un centre d'appels et un centre de modération de contenus", confirme Amin, qui travaillait sur le "marché" somalien. Mais pour "le groupe recruté après nous, les offres d'emploi mentionnaient clairement la modération de contenus", souligne-t-il toutefois.
"Le premier jour de formation, avant de nous montrer les images, ils (les formateurs, ndlr) nous ont rappelé que nous avions signé des clauses de confidentialité", raconte-t-il.
"Pendant la formation, ils ont minimisé le contenu. Ce qu'ils nous ont montré n'était rien comparé à ce que nous allions voir", ajoute-t-il: "C'est après que les problèmes ont commencé".
- Traumatisme -
Sur leurs écrans, huit heures par jour, défilaient des contenus plus choquants les uns que les autres.
"On ne choisit pas ce qu'on voit, ça arrive au hasard: suicide, violence, exploitation sexuelle d'enfants, nudité, incitation à la violence...", raconte Amin.
Un "temps de traitement moyen" de 55 à 65 secondes par vidéo leur est imposé, affirment-ils, soit entre 387 et 458 "tickets" visionnés par jour. Un travail trop lent exposait à des rappels à l'ordre, voire à terme à un licenciement.
Meta a de son côté assuré dans un courriel à l'AFP que les modérateurs de contenus "ne sont pas tenus d'évaluer un nombre défini de publications, n'ont pas de quotas et ne sont pas obligés de prendre des décisions hâtives". "Nous autorisons et encourageons les entreprises avec lesquelles nous travaillons à donner à leurs employés le temps dont ils ont besoin pour prendre une décision", a-t-on ajouté.
Aucun des trois modérateurs de contenus interrogés par l'AFP n'avait imaginé les effets que ce travail aurait sur eux.
Ils n'ont pas consulté de psychologue ou de psychiatre, faute d'argent, mais tous racontent présenter des symptômes de syndrome de stress post-traumatique, avoir des difficultés nouvelles dans leurs interactions sociales ou avec leurs proches.
Trevin Brownie dit avoir "peur des enfants à cause des enfants soldats, de la brutalité que j'ai vu des enfants commettre", ou encore peur des endroits bondés "à cause de toutes les vidéos d'attentats que j'ai vues". "J'étais un dingue de la fête", raconte-t-il: "Je ne suis plus allé dans un club depuis trois ans maintenant. Je ne peux pas, j'ai peur".
Le longiligne Amin raconte, lui, avoir notamment constaté les effets sur son corps, passant de 96 kg quand il a commencé le travail à "69-70 kg" aujourd'hui.
Tous racontent être devenus insensibles à la mort ou à l'horreur. "Mon cœur est devenu une pierre", résume Tigist.
- "Besoin d'argent" -
Meta a affirmé à l'AFP avoir "des contrats clairs avec chacun de nos partenaires qui détaillent nos attentes dans un certain nombre de domaines, y compris la disponibilité de conseils individuels, un soutien supplémentaire pour ceux qui sont exposés à un contenu plus difficile".
"Nous exigeons de toutes les entreprises avec lesquelles nous travaillons qu'elles fournissent une assistance sur site 24h/24 et 7j/7 avec des praticiens formés, un service d'astreinte et l'accès à des soins de santé privés dès le premier jour d'embauche", a assuré la compagnie.
Selon les modérateurs de contenus, le soutien proposé par Sama, via des "conseillers bien-être", n'était pas à la hauteur. Ils dénoncent des entretiens vagues, sans véritable suivi, et mettent en doute la confidentialité des échanges.
"Ce n'était d'aucune utilité. Je ne dis pas qu'ils n'étaient pas qualifiés mais je pense qu'ils n'étaient pas assez qualifiés pour gérer des personnes qui font de la modération de contenus", estime Amin.
Malgré leurs traumatismes, ils sont restés parce qu'ils avaient "besoin de cet argent".
Avec un salaire de 40.000 shillings (270 euros) - et 20.000 supplémentaires pour les non-Kényans - ils gagnaient près du triple du salaire minimum kényan (15.200 shillings).
"De 2019 jusqu'à aujourd'hui, je n'ai jamais eu l'occasion d'avoir un autre emploi ailleurs, même si j'ai beaucoup postulé. Je n'avais pas d'autre choix. C'est pour ça que je suis resté si longtemps", explique Amin.
- "Sacrifice" -
Pour tenir, les modérateurs devaient trouver des "mécanismes de défense", explique Trevin Brownie.
Certains utilisent la drogue, notamment le cannabis, racontent les modérateurs interrogés.
Trevin Brownie, ancien amateur de comédies, s'est plongé dans les films d'horreur. "C'était une façon de brouiller ma réalité. Ça me permettait d'imaginer que ce à quoi j'avais affaire (au travail, ndlr) n'était pas réel - même si ça l'était", analyse-t-il, expliquant avoir aussi développé une "addiction" aux images violentes.
"Mais un de nos principaux mécanismes de défense, c'est que nous étions persuadés de l'importance de ce travail", ajoute-t-il: "J'avais l'impression de me faire du mal mais pour les bonnes raisons, (...) que le sacrifice en valait la peine pour le bien de la société."
"Nous sommes la première ligne de défense pour Facebook, (...) comme la police des réseaux sociaux", explique-t-il, disant notamment retirer des annonces de vente de drogue ou "retirer des cibles" sur des personnes visées par des menaces de mort ou du harcèlement.
"Sans nous, les réseaux sociaux ne peuvent pas exister", ajoute-t-il: "Personne n'ouvrirait Facebook si c'était rempli de contenus choquants, de vente de drogue, de chantage, de harcèlement..."
- "On mérite mieux" -
"Ça fait des dégâts et on se sacrifie pour notre communauté, pour le monde. On mérite d'être mieux traités", abonde Tigist.
Aucun d'eux ne re-signerait pour ce métier. "Mon opinion personnelle est qu'aucun humain ne devrait faire cela. Ce n'est pas un métier pour des humains", explique Trevin Brownie: "Honnêtement, j'aimerais que l'intelligence artificielle puisse faire ce travail".
Malgré d'énormes progrès, il doute que cela soit possible dans l'immédiat.
"La technologie joue et continuera de jouer un rôle central dans nos opérations de vérification de contenus", a assuré Meta à l'AFP.
Aucun n'avait jusqu'à présent parlé, même à leur famille, de ce travail. A cause des clauses de confidentialité mais aussi parce que "personne ne peut comprendre ce qu'on vit".
"Si des gens apprennent par exemple que j'ai vu de la pornographie, ils vont me juger", explique Tigist.
Avec son mari, elle est restée vague sur son activité. A ses enfants, elle a tout dissimulé: "Je ne veux pas qu'ils sachent ce que j'ai fait. Je ne veux même pas qu'ils imaginent ce que j'ai pu voir".
L.Graham--TNT