BFM Business
Services

Modérateur, le pire job du web

Image d'illustration

Image d'illustration - Rafiq Sarlie - CC

Pour nettoyer leur plateforme des images malveillantes, Facebook et YouTube emploient des milliers de modérateurs. Huit heures par jour, ils visionnent 8000 posts d'images souvent atroces. Les plus courageux ne tiennent que quelques mois.

Pire que le démarcheur téléphonique qui passe la journée au téléphone à se faire raccrocher au nez voire insulter: modérateur chez Google et Facebook. Le témoignage de plusieurs d'entre eux dans le Wall Street Journal, dont la vaste enquête sur le sujet est parue mercredi, fait froid dans le dos.

Les deux géants de la Silicon Valley font appel à une armée d'intérimaires chargés de vérifier les vidéos qui sont signalées par les internautes comme contrevenant aux règles d'utilisation. Ces petites mains passent huit heures par jour à regarder défiler tout ce qu'internet recèle de plus vil, de plus scabreux, de plus malsain: propagande terroriste, torture sur animaux, pornographie hardcore, viol, meurtres…

8000 posts par jour

En avril déjà, le documentaire "The Moderators" et un article dans le journal allemand Süddeutsche Zeitung jetaient un pavé dans la mare. Un modérateur y racontait comment ce qu'il avait vu avait ébranlé sa "foi en l'humanité". Un autre expliquait ne plus pouvoir toucher son partenaire depuis qu'un an plus tôt, il avait été confronté à des images pédopornographiques.

À l'horreur s'ajoute le rythme de travail effréné. Chaque modérateur est censé contrôler 8000 posts par jour. Ils consacrent quelques secondes à chaque vidéo pour vérifier si elle est ou non dans les clous, avant de passer à la suivante. Les journées sont extrêmement éprouvantes et le turn-over permanent.

Une forte part de ceux interviewés par le WSJ sont d'ailleurs d'ex-modérateurs qui ont démissionné. Certains craquent au bout de quelques jours, d'autres quelques semaines. Au maximum, ils tiennent quelques mois.

Des crises d'angoisse et des insomnies

Leur employeur a bien prévu un soutien psychologique, mais le dispositif ne suffit clairement pas. Les modérateurs deviennent sujets aux crises d'angoisse, aux insomnies. Tandis que les sites internet, eux, ont de plus en plus besoin de ces personnes chargées de nettoyer leur plateforme de ses contenus immondes. Après qu'une vidéo de meurtre en direct soit devenue virale sur Facebook, Mark Zuckerberg a promis d'élargir de 4500 à plus de 20.000 les effectifs de modérateurs. Même son de cloche chez YouTube qui, comme le réseau social, voit le nombre de contenus à vérifier augmenter de manière exponentielle.

À terme, l'objectif serait que l'intelligence artificielle se charge de ce travail ingrat. Problème: elle n'est pas du tout au point techniquement pour le faire correctement. Ni aujourd'hui, ni même avant plusieurs années. La notion de bien et de mal reste encore très difficile à appréhender pour une machine.

Anthony Morel, édité par N.G.