Des modérateurs de contenus sur Facebook ou YouTube révèlent ce que ça fait de passer au crible certains des documents les plus inquiétants d'internet

Adam Berry/Getty Images

  • Des personnes qui ont été recrutées pour passer au crible les publications en ligne ayant été signalées sur des plateformes comme Facebook et YouTube disent que le travail a un énorme impact psychologique.  
  • On demande régulièrement aux modérateurs de regarder des vidéos et des images perturbantes d'abus sexuel sur mineur, de violence, de cruauté envers les animaux et plus encore. 
  • Un ancien modérateur décrit son rôle comme "regarder le contenu de cinglés... qui n'ont pas de conscience."

Un très grand nombre d'employés qui ont pour mission de modérer le contenu sur des plateformes comme Facebook et YouTube disent qu'ils ne sont pas préparés à l'impact psychologique engendré par ce travail.

Les modérateurs de contenus sont recrutés pour trier les publications en ligne, qui incluent des images et vidéos qui ont été signalées comme inappropriées. Plusieurs de ces employés ont partagé leurs expériences dans un article du Wall Street Journal publié le 27 décembre  2017 au soir. 

Les modérateurs disent qu'ils ont regardé des images de victimes de guerre qui ont été "éviscérées" et des "enfants soldats qui se livrent à des massacres." Un ancien modérateur qui a travaillé pour Facebook se rappelle d'avoir vu une vidéo d'un chat jeté dans un micro-ondes, rapporte le Wall Street Journal.

Shaka Tafari, qui a modéré du contenu sur l'appli de messagerie Whisper, dit qu'il a été "alarmé" par le nombre de messages qui contenaient des références au viol ou qui incluaient des images de zoophilie et de maltraitance animale. 

"Je regardais le contenu de cinglés dans les bois qui n'ont quelque part aucune conscience du caractère ou de sensation au rapport humain," a dit Tafari au Journal.

Les géants de la tech encadrent des milliers de modérateurs de contenu — des emplois qui sont pourvus généralement au travers de cabinets de recrutement et qui possèdent un fort taux de rotation en raison de la nature du travail. Mais la rotation pourrait aussi être attribuée au stress émotionnel, selon d'anciens employés interviewés par le Wall Street Journal.

Certaines de ces personnes prétendent qu'elles ont reçu peu d'outils pour gérer les séquelles d'un job qui a exigé qu'elles examinent certains des contenus les plus pervers d'internet. On offre aux modérateurs de contenu chez Facebook et Microsoft différentes pistes d'accompagnement psychologique, rapporte le journal, mais certains de ces employés disent que ce n'est pas assez. Les modérateurs quittent généralement leur postes au bout d'un an ou moins. 

La modération de contenu est devenu un problème sensible chez Facebook, en particulier cette année après les retombées de l'élection présidentielle américaine de 2016, quand il a été révélé que la Russie a utilisé la plateforme pour exercer une influence sur la campagne afin de favoriser le candidat Donald Trump et discréditer son adversaire démocrate, Hillary Clinton.

Bien que le CEO de Facebook, Mark Zuckerberg avait initialement rejeté l'idée, la plateforme de réseau social a plus tard admis que des agents basés en Russie avaient publié près de 80.000 publications sur la plateforme pendant deux ans.  

L'affaire s'est amplifiée cette semaine lorsque le Washington Post a rapporté que les efforts de la Russie pour influencer les élections continueraient certainement, tandis que des responsables officiels ont récemment prévenu que les plateformes digitales sont toujours vulnérables à des tels abus.

Version originale: Bryan Logan/Business Insider

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Des documents internes à Facebook montrent pourquoi de nombreux contenus violents ne sont pas supprimés

VIDEO: L'armée américaine peut attraper des drones en plein vol grâce à une technique aérienne innovante