On se doutait que les règles de modération de Facebook étaient très souples ; on en a désormais la preuve. Le Guardian vient publier une série d'articles qui montrent des documents internes à Facebook confidentiels dans lesquels sont détaillées les règles de modération des contenus sur le réseau social.

On apprend notamment que les modérateurs n'ont souvent que "10 secondes" pour choisir si un contenu doit rester ou non en ligne.

Bien que Facebook détaille ses règles et "standards de communauté" sur son site, les documents rendus public par le quotidien britannique sont beaucoup plus précis.

Parmi les documents, il y a un PowerPoint pour déterminer le degré de crédibilité de "menaces de violence", à grand coup d'exemples :

  • Une menace contre un-e chef d'Etat, un-e activiste ou un-e journaliste doit être immédiatement effacée ("que quelqu'un abatte Trump").
  • En revanche, les phrases "j'espère que quelqu'un va te tuer" ou "pour briser la nuque d'une salope, il faut bien appuyer sur le milieu de la gorge" sont considérées comme tolérables et peuvent être ignorées par les modérateurs.

Diapo leaké interne à Facebook. The Guardian.

Les vidéos d'abus sur des enfants, de nature non sexuelle, seront retirées uniquement si elles font preuves de "sadisme ou de célébration". Cela signifie que ces types de vidéos restent en ligne et ne sont signalées que comme "perturbantes":

  • Une vidéo d'un adulte qui secoue un bébé par les pieds, mains, jambes, ou le cou.
  • Une vidéo d'un enfant qui fume du tabac ou de la marijuana.

Une grande partie des violences faites aux animaux n'est pas non plus supprimée par les modérateurs. "En général, ces abus peuvent être partagés sur le site", souligne un autre diapo. La photo d'un homme qui frappe un chien sera ainsi ignorée, tandis que des photos ou vidéos d'un animal "mutilé" seront signalées comme "perturbantes".

Diapo leaké interne à Facebook. The Guardian.

Facebook double ses effectifs de modération

Le 3 mai dernier, Mark Zuckerberg avait annoncé embaucher 3000 personnes de plus pour consolider l'équipe de 4500 modérateurs chargés de surveiller les contenus à travers le monde. Facebook ne précise pas si ces personnes sont embauchées en interne ou si ce sont des contrats de modération sous-traités.

Cette décision a été prise après que plusieurs personnes se sont filmées en train de commettre un meurtre ou de se suicider, en direct sur le réseau social.

Contacté par Business Insider France, Facebook nous a partagé le communiqué de Monika Bickert, en charge de la politique mondiale du groupe: 

"En complément du renforcement de nos équipes, nous sommes également en train de construire de meilleurs outils pour garantir la sécurité de notre communauté. Nous allons simplifier le signalement des problèmes, accélérer la réponse de nos équipes sur les publications qui ne respectent pas nos standards et faciliter le contact avec les autorités si quelqu’un a besoin d’aide."

En France, 33 millions d'internautes ont un compte Facebook. 

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Facebook va payer 7500 personnes pour surveiller le contenu des vidéos violentes postées sur le réseau social

VIDEO: Pourquoi la soie coûte si cher