Instagram a supprimé des millions de posts ce dernier trimestre, notamment des contenus liés au terrorisme ou à l'exploitation des enfants

Mark Zuckerberg, PDG de Facebook, parle de "News Tab" au Paley Center, le vendredi 25 octobre 2019 à New York. AP Photo/Mark Lennihan

Mercredi, Facebook a publié son rapport semestriel sur la transparence (Transparency Report), qui présente des indicateurs sur la politique de modération du réseau - et pour la première fois, ce rapport inclut des données relatives à Instagram, son application de partage de photos. Les données donnent un aperçu sans précédent du volume de contenu problématique et illégal qu'Instagram s'efforce de maintenir hors de son réseau social.

Au troisième trimestre de 2019, Instagram a pris des mesures contre 753 700 contenus relatifs à la nudité des enfants ou à l'exploitation sexuelle des enfants, et 133 300 contenus de propagande terroriste. Le réseau social a aussi pris des mesures contre 1,5 million de contenus liés à la vente ou au commerce de drogues et 58 600 relatifs aux armes à feu. Instagram a été fortement critiqué pour son rôle d'hébergeur de messages faisant la promotion de l'automutilation. Au cours des six derniers mois, il a pris des mesures contre plus de 1,6 million d'éléments contenant des représentations de suicide.

Facebook a aussi supprimé des contenus drastiquement

Mais Instagram et Facebook ne sont pas les seuls à faire face à cette vague de contenu problématique. Tous les principaux réseaux sociaux et plateformes de communication, de Twitter à Snapchat, hébergent inévitablement des contenus problématiques ou illégaux. Ces entreprises engagent des légions de modérateurs pour tenter d'éliminer les contenus indésirables de leurs plateformes (le traitement de ces travailleurs est devenu une question controversée en soi). Désormais, elles vantent de plus en plus l'intelligence artificielle comme un moyen de s'auto-réguler de manière plus proactive.

À lire aussi—Twitter a publié sa politique de modération pour les chefs d'Etat, dont les types de tweets qui ne seront pas autorisés

Au troisième trimestre de 2019, Facebook affirme que son algorithme a été en mesure de détecter 79,1 % des contenus liés au suicide ou à l'automutilation avant qu'il ne soit signalés par les utilisateurs, 94,6 % des images de nudité ou d'exploitation d'enfants, et 92,2 % de la propagande terroriste.

Facebook a publié beaucoup plus de données relatives à son réseau social. Au troisième trimestre de 2019, elle a pris des mesures contre : 7 millions de contenus relatifs aux discours haineux, 3,2 millions sur l'intimidation/harcèlement, 11,6 millions sur la nudité/exploitation des enfants, 5,2 millions sur la propagande terroriste, 25,2 millions sur la violence graphique et 2,5 millions sur le suicide ou l'automutilation, entre autres choses.

Version originale : Rob Price : Business Insider US 

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Facebook révèle de nouveaux détails sur son futur conseil qui supervisera la modération des contenus... et les 6 autres choses à savoir dans la tech

VIDEO: Un spécialiste du sommeil nous explique comment faire des rêves lucides