Facebook | Une ancienne modératrice raconte son enfer au quotidien

L’employée du réseau social devait régulièrement faire face à du contenu choquant, notamment de la pédopornographie.

Photo d’illustration. Facebook. tongcom photographer Shutterstock.com

En huit mois seulement, Sarah Katz a certainement vu plus d’images choquantes qu’elle en verra de toute sa vie.

Et pourtant, cette Américaine de 27 ans n’est pas reporter de guerre, mais travaillait en tant que modératrice de contenus pour Vertisystem, une entreprise sous-traitante de Facebook.

Cette dernière s’est confiée sur une expérience éprouvante tant physiquement que mentalement.

8 000 contenus à analyser chaque jour

Sarah Katz s’est confiée auprès des spécialistes de Business Insider sur son expérience qui a débuté en 2016. Embauchée auprès du sous-traitant de Facebook, la jeune femme a très vite compris l’ampleur de la tâche qui l’attendait.

Sa mission consistait à analyser les signalements de contenu effectués par les utilisateurs du réseau social. Toutes les dix secondes, elle devait prendre une décision sur la modération ou non des contenus qui apparaissaient sur son écran. Un rythme effréné de 8000 posts à traiter chaque jour qui finira au final par la désensibiliser totalement.
Violence et pédopornographie

Au milieu des messages violents ou xénophobes, Sarah Katz voyait régulièrement passer du contenu pédopornographique. Si dans un premier temps, le choc a été rude, elle explique que le rythme des publications et la monotonie ont finalement fini par la rendre presque insensible. Finalement, Sarah a décidé de quitter cet emploi qui aurait pu finir par nuire à sa santé mentale.

Facebook est conscient des difficultés rencontrés par ses modérateurs puisque l’entreprise fait signer une décharge aux futurs employés leur indiquant qu’ils verraient régulièrement des contenus dérangeants et qu’ils devaient rapidement signaler tout sentiment de malaise ou toute envie d’arrêter ce travail.

Depuis mai 2017, Facebook a renforcé ses équipes de modérations notamment suite à la diffusion de plusieurs meurtres en direct sur le réseau social.

Dans un rapport publié en mai, Facebook expliquait avoir modéré plus de 3,4 millions de posts sur les trois premiers mois de l’année 2018, soit 1,2 million de plus qu’entre octobre et fin décembre 2017.

Source :24matins.fr

Source(s):