Des vidéos en caméra cachée révèlent la formation que suivent les modérateurs de Facebook

Les modérateurs de Facebook sont entraînés à évaluer les contenus graphiques violents. Firecrest/C4

  • La formation suivie par les modérateurs de Facebook a été révélée dans des images prises en caméra cachée, tournées par un journaliste de la chaîne de télévision britannique Channel 4.
  • La formation, fournie par le prestataire de modération de contenus de Facebook, CPL Resources, révèle ce que les modérateurs doivent faire avec des contenus, notamment en cas d'abus sur mineur ou racisme. 
  • On dit aux modérateurs de CPL de ne pas supprimer une vidéo d'un adulte frappant un enfant, des images à caractère violent ou encore des memes racistes. 
  • Mais Facebook a dit que la formation "ne répondait pas aux critères élevés attendus", et a mis en place des mesures pour pallier cette situation. 

La formation que les modérateurs de Facebook suivent a été révélée dans une vidéo tournée en caméra cachée. 

Un journaliste de la chaîne de télévision britannique Channel 4 s'est infiltré en tant que modérateur de Facebook et a vu comment faire face à des contenus extrêmes, incluant la maltraitance infantile, l'auto-mutilation ou le racisme. 

Dans cette formation secrètement filmée, les nouveaux modérateurs passent au crible différents genres de contenus et sont chargés de les supprimer, de les ignorer ou de les signaler comme sensibles. Cette dernière mention signifie qu'ils restent sur Facebook, mais restreint qui peut y accéder.

Le journaliste a été recruté par CPL Resources, une société basée à Dublin, à qui Facebook fournit des contenus à modérer. Ci-dessous figurent des exemples donnés par CPL durant la formation, montrés dans le documentaire de Channel 4 intitulé "Inside Facebook: Secrets of the Social Network".

Facebook a publié une note de blog relative au contenu du film, dans lequel il dit que la formation n'est pas à la hauteur de ses exigences. Monika Bickert, vice-présidente de la politique générale de management à Facebook, a dit que certaines choses qui sont vues dans le documentaire de Channel 4 "ne reflètent pas les règlementations ou les valeurs de Facebook, et ne correspondent pas aux normes élevées attendues." 

Facebook a révisé le contenu de la formation des prestataires comme CPL et fourni des formations aux modérateurs de ce sous-traitant. Les membres de l'équipe de CPL qui ne respectent pas les normes de Facebook ne modèrent plus les contenus du site.

CPL a dit à Channel 4: "Veiller à ce que nos formateurs et nos employés soient toujours bien formés et à jour sur les changements de politique de Facebook est d'une importance cruciale pour nous, c'est pourquoi nous enquêtons sur cette question en priorité et prenons des mesures immédiates avec Facebook."

Les séquences obtenues par Channel 4 ont montré les formateurs en modération passer en revue un nombre d'exemples spécifiques de contenus à traiter. Dans certains cas, la décision a été claire: le contenu doit être supprimé. D'autres étaient moins évident.

Les photos d'une femme aux seins nus — à supprimer

Très tôt dans le documentaire, on montre des photos de femmes aux seins nus aux modérateurs en formation, et on leur dit de "supprimer des images qui représentent une vraie femme adulte dont les tétons ne sont pas couverts".

Mort violente — signaler comme sensible

On a montré aux modérateurs des images de violence explicite et on leur dit que "ce ne sont pas les plus belles à voir", et ils sont invités à quitter la salle et aller "prendre un verre d'eau", si l'une de ces images les rend malade. 

On leur dit qu'une séquence de quelqu'un en train de mourir n'était "pas nécessairement à supprimer". 

Le journaliste a demandé pourquoi des séquences de personnes en train de mourir n'étaient pas supprimées, et on lui a répondu que parfois, elles respectaient les termes d'utilisation de Facebook  — plus particulièrement si elles "sensibilisent". Le formateur n'a pas étayé ce point dans le documentaire de Channel 4.

Une image d'un petit garçon en train de se faire battre par son beau-père — on laisse

On montre aux modérateurs en formation des images d'un petit garçon se faisant sévèrement battre par quelqu'un supposé être son beau-père. C'est utilisé comme un exemple de ce qui pourrait être laissé et "signalé comme choquant". 

Le formateur dit: "nous marquons toujours comme sensibles des contenus relatifs à de la maltraitance infantile. Nous ne les supprimons jamais et nous ne les ignorons jamais". 

l'extrait d'une vidéo montrant un adule frapper un petit enfant est diffusé lors de la formation. Via Facebook

Dans la vidéo en caméra cachée de Channel 4, un modérateur en formation demande ce qui doit être fait de plus concernant les images de maltraitance infantile. Un formateur lui dit qu'il "n'y a rien que nous puissions réellement faire", sauf s'il s'agit d'une vidéo en direct.

Dans le documentaire de Channel 4, Richard Allan, vice-président de la politique publique de Facebook a dit que la vidéo "aurait dû être retirée". Vous pouvez visionner l'intégralité de son interview (en anglais) ici: 

 

Une vidéo d'un homme mangeant des bébés rats vivants — ignorer

Dans la peau d'un modérateur, le journaliste sous couverture a visionné la séquence d'un homme dévorant des bébés rats vivants. On lui a dit d'ignorer la vidéo, car il le faisait "à des fins de se nourrir", et donc, que cela ne constituait pas une violation de la politique de Facebook concernant la cruauté animale. 

Une vidéo de deux filles se battant — signaler comme choquant

Toujours sous couverture dans son rôle de modérateur, le journaliste est tombé sur une vidéo de deux adolescentes en pleine bagarre, qui a été partagée plus d'un millier de fois. Son ressentiment a été que l'une des filles était "clairement plus dominante que l'autre" et que l'autre fille s'était finalement "fait battre". Il a demandé clarification quant à la suppression ou non de la vidéo. 

Un journaliste dans la peau d'un modérateur de Facebook, pour le compte de la chaîne de télévision Channel 4. Channel 4/Firecrest Films

Un modérateur lui dit que cette vidéo relève d'une nouvelle politique et que, parce que la légende de la vidéo est une condamnation de l'intimidation, elle devrait être signalée comme dérangeante. Dans le cas contraire, toute intimidation physique de mineurs entraîne une suppression.

Des images d'auto-mutilation — supprimer si "apologie", laisser si "admission"

Les modérateurs en formation ont vu des images et des memes de "suicide et d'apologie de l'auto-mutilation". Cela comprend une image d'un bras couvert d'entailles, accompagné de la mention "la sensation me manque". On ne leur a pas dit que ce genre de contenus devait être supprimé. 

Cependant, des contenus montrant de l'auto-mutilation sans ce contexte d'"apologie" sont qualifiés d'"auto-mutilation d'admission", et peuvent être laissés sur le site. Le formateur a dit: "tout ce qu'il y a à faire avec [l'auto-mutilation d'admission] c'est de rediriger vers un checkpoint". Un checkpoint — ou point de contrôle — est un message envoyé à l'utilisateur, qui contient des informations sur des services d'aide psychiatrique.

Richard Allan affirme qu'il y a une raison légitime à ce que Facebook laisse ces images sur sa plateforme. "Il y a en fait un très fort intérêt légitime à ce que cette personne, si elle exprime de la détresse, puisse être en mesure d'exprimer sa détresse à sa famille et ses amis via Facebook et ainsi, être aidée", a-t-il dit.

Des utilisateurs en-dessous de l'âge minimum — ignorer et ne pas envoyer d'aide

On a dit aux apprentis modérateurs qu'un utilisateur, manifestement en-dessous de l'âge minimum, postant une photo relatant un trouble du comportement alimentaire, pour lequel on leur a dit qu'ils ne devaient pas le rediriger vers un checkpoint. On leur dit que Facebook ne prend pas d'actions concernant les profils en-dessous de l'âge minimum, à moins qu'ils n'admettent spécifiquement être en-dessous de 13 ans. 

"Nous devons avoir la confirmation que cette personne est en-dessous de cet âge. Sinon, nous devons simplement faire comme si nous n'avions rien vu", a dit le formateur. 

Facebook a dit que ce n'était pas le cas. Dans son blog, la responsable du règlement de Facebook a dit: "si quelqu'un nous est signalé comme en-dessous de l'âge de 13 ans, l'examinateur devra passer en revue le contenu de son profil (texte et photos) pour s'assurer de son âge. 

"S'il pense que la personne a moins de 13 ans, le compte sera suspendu et la personne ne sera pas en mesure d'utiliser Facebook tant qu'elle n'aura pas apporté une preuve de son âge". 

Discours de haine raciale — ça dépend

Les formés visionnent de nombreux memes racistes et islamophobes, et on leur dit par exemple que les images appelant à "l'exclusion, la mort ou heurtant les Musulmans" doivent être supprimés pour "haine ostensible". 

Cependant, en exemple de ce qui est à ignorer, on leur donne un meme d'une petite fille dont la tête est retenue sous l'eau, avec la légende "quand ta fille a son premier coup de foudre pour un négro". C'est parce que l'image "implique beaucoup, mais pour constituer la violation réelle, vous devez faire de nombreuses pirouettes pour en arriver là."

Ce même a été donné comme exemple pour "ignorer" un contenu. Firecrest/C4

Facebook a dit à Channel 4 qu'en réalité, cette image violait sa politique sur le discours de haine. 

Des discours de haine ciblant les migrants — ignorer

Le journaliste infiltré a demandé des conseils s'il devait ou non supprimer un commentaire qui disait: "allez vous faire foutre dans vos propres pays", sous une vidéo avec une légende se référant à des migrants musulmans. 

Le formateur a répondu au journaliste: "Si ça parle uniquement des musulmans, ouais, vous devez faire quelque chose. Mais sinon, c'est en fait à ignorer". Les migrants ont spécifiquement moins de protections que les minorités ethniques sur la plateforme, d'après un membre du personnel de CPL secrètement filmé.

Des pages avec de nombreux abonnés — à traiter avec précaution

Un formateur a dit au journaliste sous couverture de Channel 4 que la page Facebook Britain First, qui a été démantelée en mars, comportait huit ou neuf violations, alors que cinq est la limite théorique, "mais apparemment, ils ont beaucoup d'abonnés, alors ils génèrent beaucoup de chiffre d'affaires pour Facebook". 

Les pages avec de nombreux abonnés sont des "contenus protégés", et ne peuvent être supprimés par les modérateurs de CPL. Les employés à temps plein de Facebook ont la décision finale après qu'une page a été mise dans la "file d'attente protégée". Une de ces pages protégées est celle de l'activiste d'extrême droite Tommy Robinson, qui, d'après Channel 4, serait suivi par plus de 904.000 personnes.

Facebook a fermement démenti tirer profit des contenus extrêmes. Allan a dit à Channel 4: "les contenus choquants ne nous font pas gagner plus d'argent — c'est tout juste une méconnaissance de comment notre système fonctionne". 

Version originale: Isobel Asher Hamilton/Business Insider UK 

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Facebook doit accorder à des parents l'accès aux messages privés de leur fille décédée

VIDEO: Voici ce qui arrive à votre corps lorsque vous avalez un chewing-gum