Mercredi, Facebook a publié son rapport semestriel sur la transparence (Transparency Report), qui présente des indicateurs sur la politique de modération du réseau - et pour la première fois, ce rapport inclut des données relatives à Instagram, son application de partage de photos. Les données donnent un aperçu sans précédent du volume de contenu problématique et illégal qu'Instagram s'efforce de maintenir hors de son réseau social.
Au troisième trimestre de 2019, Instagram a pris des mesures contre 753 700 contenus relatifs à la nudité des enfants ou à l'exploitation sexuelle des enfants, et 133 300 contenus de propagande terroriste. Le réseau social a aussi pris des mesures contre 1,5 million de contenus liés à la vente ou au commerce de drogues et 58 600 relatifs aux armes à feu. Instagram a été fortement critiqué pour son rôle d'hébergeur de messages faisant la promotion de l'automutilation. Au cours des six derniers mois, il a pris des mesures contre plus de 1,6 million d'éléments contenant des représentations de suicide.
Facebook a aussi supprimé des contenus drastiquement
Mais Instagram et Facebook ne sont pas les seuls à faire face à cette vague de contenu problématique. Tous les principaux réseaux sociaux et plateformes de communication, de Twitter à Snapchat, hébergent inévitablement des contenus problématiques ou illégaux. Ces entreprises engagent des légions de modérateurs pour tenter d'éliminer les contenus indésirables de leurs plateformes (le traitement de ces travailleurs est devenu une question controversée en soi). Désormais, elles vantent de plus en plus l'intelligence artificielle comme un moyen de s'auto-réguler de manière plus proactive.
Au troisième trimestre de 2019, Facebook affirme que son algorithme a été en mesure de détecter 79,1 % des contenus liés au suicide ou à l'automutilation avant qu'il ne soit signalés par les utilisateurs, 94,6 % des images de nudité ou d'exploitation d'enfants, et 92,2 % de la propagande terroriste.
Facebook a publié beaucoup plus de données relatives à son réseau social. Au troisième trimestre de 2019, elle a pris des mesures contre : 7 millions de contenus relatifs aux discours haineux, 3,2 millions sur l'intimidation/harcèlement, 11,6 millions sur la nudité/exploitation des enfants, 5,2 millions sur la propagande terroriste, 25,2 millions sur la violence graphique et 2,5 millions sur le suicide ou l'automutilation, entre autres choses.