Download_on_the_App_Store_Badge_FR_RGB_blk_100517

Les messages d'incitation à la violence sur Facebook auraient augmenté de 45% durant la semaine électorale aux États-Unis

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

Les messages d'incitation à la violence sur Facebook auraient augmenté de 45% durant la semaine électorale aux États-Unis
© Nick Wass/Associated Press

Depuis des années, les chercheurs en désinformation, les groupes de défense des droits de l'homme, les ONG, les gouvernements, les journalistes et les utilisateurs tentent d'alerter Facebook sur les cas où la plateforme est utilisée pour inciter à la violence dans le monde réel. Selon BuzzFeed News, Facebook suit également ces cas grâce à un outil de mesure interne appelée "tendances à la violence et à l'incitation" ; et à l'heure où certains farouches soutiens de Donald Trump appellent ouvertement à la violence à l'heure du dépouillement des voix, ces tendances grimpent en flèche.

L'outil de mesure analyse les hashtags et les termes de recherche utilisés sur Facebook au cours des cinq derniers jours afin de produire un score qui estime la probabilité de violence potentielle dans le monde réel. Ce score a augmenté de 45 %, passant de 400 à 580, durant cette semaine électorale aux États-Unis.

A lire aussi — Election présidentielle américaine : suivez notre live

La discussion des employés sur les termes qui ont connu une forte hausse de popularité récemment, tels que #DrainTheSwamp, #Trump2020, et #KeepAmericaGreat ainsi que les hashtags affiliés au groupe conspirationiste QAnon, a laissé entendre que Facebook a pris des mesures pour supprimer certaines tendances potentiellement dangereuses. Mais il existe également de nombreux termes de "zone grise", qui n'appellent pas explicitement à la violence, mais pourraient tout de même être corrélés à un préjudice réel.

Facebook n'a pas répondu aux questions de Business Insider US, mais un porte-parole a déclaré à BuzzFeed News que Facebook "(restait) vigilant dans la détection de contenu qui pourrait inciter à la violence en cette période d'incertitude accrue".

Facebook s'est démené cette semaine pour supprimer ou limiter la diffusion de contenus qui violent ses politiques ayant trait à la désinformation électorale ou l'incitation à la violence, mais il n'a pas toujours été en mesure de supprimer à temps ce type de contenus avant qu'ils deviennent viraux.

Bien que les recommandations des groupes politiques aient été temporairement désactivées avant l'élection présidentielle américain, Facebook a permis à un groupe qui a fait de fausses déclarations électorales et des "appels inquiétants à la violence" de réunir plus de 365 000 membres en seulement deux jours avant de retirer le groupe.

Facebook a fait face à une pression croissante, tant en interne qu'en externe, pour prendre des mesures plus agressives contre la désinformation, en particulier en période électorale, et la société a mis en place une série de nouvelles politiques et mesures ces derniers mois.

À lire aussi — Facebook n'aurait pas appliqué sa politique contre la désinformation à Donald Trump et ses alliés

Le réseau social a renforcé ses règles contre la répression et l'intimidation des électeurs (y compris les appels à la violence), supprimé des réseaux de désinformation et mis sur pied son centre d'opérations électorales, qui travaille activement avec les forces de l'ordre pour repérer les tentatives d'influence étrangère. Facebook a également mis en place un système permettant de signaler les messages à examiner par les modérateurs avant qu'ils ne deviennent viraux. Le réseau social a temporairement désactivé les recommandations des groupes politiques et continue de faire appel à des tiers pour vérifier les faits.

Cependant, malgré ces changements, les chercheurs en désinformation restent sceptiques quant à la capacité de Facebook à traiter efficacement le problème.

"Je ne suis pas du tout sûre qu'ils s'en occupent", a déclaré à BuzzFeed Nina Jankowicz, chercheuse au Woodrow Wilson International Center for Scholars. Elle a ajouté que la suppression des hashtags est une façon inadéquate de traiter les groupes enclins à la violence, car la cause profonde est le modèle économique de Facebook, qui repose sur le maintien de ce type de groupes sur sa plateforme en premier lieu.

Facebook est également accusé depuis longtemps de contribuer voire même d'exacerber la violence dans le monde réel — notamment lors du génocide contre les Rohingyas en Birmanie ou en ayant refusé de prendre des mesures contre les groupes appelant ouvertement à la violence contre les manifestants anti-police à Kenosha, dans le Wisconsin, où trois d'entre eux ont finalement été abattus malgré les centaines de signalement reçus.

Version originale : Tyler Sonnemaker/Business Insider US

A lire aussi Face ID, Facebook, Google Photos... comment fonctionne la reconnaissance faciale de vos applis

Découvrir plus d'articles sur :