Une publicité Facebook à Londres le 28 juillet 2018. REUTERS/Henry Nicholls

Dix secondes. C'est le temps dont disposeraient les modérateurs de Facebook pour décider de retirer un contenu en s'appuyant parfois sur des informations erronées ou obsolètes, rapporte un enquête du New York Times.

Le journal a mis la main sur 1400 pages de documents internes — souvent des présentations Power Point — qui sont utilisés par les 7500 modérateurs du réseau social pour retirer ou non un contenu jugé haineux, violent, dangereux ou qui relève de la désinformation dans 100 différentes langues.

Selon un modérateur qui parle sous couvert d'anonymat, ces employés disposent de huit à dix secondes pour appliquer des règles généralistes à des sujets parfois très complexes sur lesquels des juristes spécialisés ont des difficultés pour trancher.

"Vous vous sentez comme si vous aviez tué quelqu'un sans agir", a déclaré un modérateur anonyme.

Mais l'enquête du journal américain montre que les documents de référence — dont Facebook a reconnu l'authenticité — contiennent des informations parfois erronées, obsolètes ou qui protègent la réputation de Facebook. Par exemple, les modérateurs ont été invités à supprimer des appels à la collecte de fonds pour les victimes de l'éruption d'un volcan en Indonésie, car un soutien de la campagne figurait sur la liste interne des groupes interdits de Facebook.

Plus largement, l'enquête pose de sérieuses questions sur l'approche, le pouvoir de Facebook — capable d'autoriser dans des pays des discours extrémistes et bannissant des prises de position plus traditionnelles dans d'autres — et les moyens utilisés.

Ainsi, en s'intéressant aux conditions de travail des employés, le New York Times révèle que les employés utilisent tout simplement Google Translate pour comprendre les contenus publiés.

Un modérateur a déclaré qu'il existait une règle disant d'approuver tout message si celui-ci était rédigé dans une langue qu'aucun utilisateur disponible ne pourrait lire.

L'ONU a ainsi accusé Facebook d'avoir laissé se propager des discours de haine contre les Rohingyas en Birmanie et diffuser des appels à la violence contre cette minorité musulmane.

"Nous avons des milliards de messages chaque jour, nous identifions de plus en plus de violations potentielles en utilisant nos systèmes techniques. À cette échelle, même si vous êtes précis à 99 %, vous aurez beaucoup d'erreurs", a répondu Monika Bickert, la responsable da la gestion de la politique publique de Facebook, au New York Times.

Plus tôt dans l'année, la formation suivie par les modérateurs de Facebook a été révélée dans une vidéo filmée en caméra cachée.

Vous pouvez lire l'enquête du New York Times ici.

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Les utilisateurs de Facebook seraient prêts à fermer leur compte en échange de 1000$, estime une étude

VIDEO: Cette mappemonde animée montre comment les chats se sont répandus sur la planète