Download_on_the_App_Store_Badge_FR_RGB_blk_100517

Facebook va modérer les contenus de QAnon et des groupes posant des 'risques pour la sécurité publique'

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

Facebook va modérer les contenus de QAnon et des groupes posant des 'risques pour la sécurité publique'
Militants QAnon. © John Rudoff/Anadolu Agency via Getty Images

Facebook prend de vastes mesures à l'égard de divers groupes qu'elle décrit comme présentant "des risques importants pour la sécurité publique", a annoncé la société, mercredi 19 août. La liste comprend des pages et des groupes liés à la mouvance QAnon, une théorie de conspiration d'extrême droite, des milices basées aux Etats-Unis, et "des groupes anarchistes indépendants qui soutiennent des actes violents au milieu des protestations" — ces deux derniers groupes, selon Facebook, comprennent "certains qui pourraient s'identifier comme Antifa".

Si d'autres actions sont à venir, la société a indiqué que 2 000 groupes et plus de 500 pages ont déjà été supprimés de sa base de données. "Dans le cadre de cette expansion de notre politique de modération, nous allons imposer des restrictions pour limiter la diffusion du contenu provenant de pages Facebook, de groupes et de comptes Instagram", a déclaré le blog. "Nous allons également supprimer les pages, groupes et comptes Instagram où nous identifions des discussions potentiellement violentes, y compris lorsqu'ils utilisent pour ce faire un langage voilé et des symboles propres au mouvement".

Avec plus de 2 milliards d'utilisateurs, Facebook est de loin le plus grand réseau social existant. Mais alors que le service continue à se développer, la société qui le gère a lutté, ou carrément refusé, de modérer son contenu. Un article du Wall Street Journal, datant de mai, a révélé que des cadres, dont le PDG de Facebook, Mark Zuckerberg, ont refusé de modérer le service même lorsqu'il a été prouvé que ses algorithmes "exploitent l'attrait du cerveau humain pour la division".

Dans un exemple récent, une étude a révélé que les utilisateurs de Facebook qui ont interagi avec du contenu négationniste se sont vu suggérer par la suite du contenu négationniste supplémentaire. Le rapport a trouvé des contenus similaires négationnistes disponibles sur Reddit, Twitter et YouTube — mais Facebook était le seul service qui a fait apparaître de manière active des contenus supplémentaires liés à l'Holocauste.

Dans le cadre des mesures annoncées mercredi, Facebook supprimera complètement de cet algorithme de suggestion les "pages, groupes et comptes Instagram associés à ces mouvements". La société s'est également engagée à surveiller les futurs mouvements et à prendre des mesures supplémentaires si nécessaire.

Version originale : Ben Gilbert / Business Insider US.

A lire aussi —Facebook expose ses utilisateurs à des opinions de plus en plus extrêmes et Mark Zuckerberg refuse d'y remédier

Découvrir plus d'articles sur :