Download_on_the_App_Store_Badge_FR_RGB_blk_100517

Facebook expose ses utilisateurs à des opinions de plus en plus extrêmes et Mark Zuckerberg refuse d'y remédier

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

Facebook expose ses utilisateurs à des opinions de plus en plus extrêmes et Mark Zuckerberg refuse d'y remédier
Le PDG de Facebook, Mark Zuckerberg. © Chip Somodevilla/Getty Images

Facebook sait depuis longtemps que sa plateforme encourage les contenus extrémistes et polarisants, et l'entreprise ne montre aucune envie d'apporter des changements pour résoudre ce problème. Son PDG Mark Zuckerberg lui-même ne semble pas s'y intéresser, comme le rapporte le Wall Street Journal. Le Wall Street Journal a révélé que des recherches menées en interne par Facebook en 2016 et 2018 ont prouvé que l'algorithme de la plateforme contribuait à la prolifération de contenus polarisants.

Lorsque Mark Zuckerberg s'est vu présenter des propositions de modifications de la plateforme pour endiguer leur propagation, le PDG de Facebook a demandé aux employés de ne plus lui faire de propositions de modifications de l'algorithme "au nom du bien commun", a déclaré le journal américain. L'article sur l'inaction de Facebook arrive à un moment où la plateforme est une fois de plus sous les feux de la rampe en raison de son incapacité à stopper la propagation de fausses informations dangereuses — cette fois, sur la pandémie de coronavirus.

Facebook et Mark Zuckerberg insistent depuis longtemps sur le fait que la plateforme n'est pas responsable des opinions et des contenus polarisants des utilisateurs, mais le Wall Street Journal a déclaré que des experts ont informé les dirigeants de l'entreprise de son impact depuis 2016.

En interne, Facebook a formé un groupe de travail en 2017 appelé "Common Ground" ("terrain d'entente" en français), qui était composé d'ingénieurs, de chercheurs et d'employés des "équipes d'intégrité" pour analyser comment les contenus polarisants évoluaient sur la plateforme, a rapporté le Wall Street Journal. Selon une présentation de 2018 obtenue par le quotidien, les experts ont découvert que l'algorithme de Facebook — qui donne la priorité à l'engagement des utilisateurs et au temps passé sur la plateforme — encourageait la polarisation des contenus en exploitant "l'attrait du cerveau humain pour tout ce qui divise".

Malgré ces conclusions, les hauts responsables ont rejeté ou édulcoré les changements proposés afin de s'assurer que Facebook n'ait pas l'air de vouloir façonner les opinions des utilisateurs ou d'adopter une position morale. Les dirigeants de Facebook ont été encore plus sévères en mettant un terme à tous les efforts qui auraient pu donner l'impression que la plateforme avait un parti pris politique.

En 2018, les responsables de Facebook ont déclaré aux employés que la plateforme changeait ses priorités, pour "s'éloigner du bien commun" et se rapprocher de "la valeur individuelle", selon le Wall Street Journal. Depuis, Facebook et Mark Zuckerberg ont promu une approche plus "distante" sur le contenu, n'intervenant que si les utilisateurs "violent spécifiquement les règles de l'entreprise".

Dans une déclaration au Wall Street Journal qui a également été envoyée à Business Insider US, un porte-parole de Facebook a déclaré : "Nous avons beaucoup appris depuis 2016 et nous ne sommes plus la même entreprise aujourd'hui. Nous avons constitué une solide équipe d'intégrité, renforcé nos politiques et nos pratiques pour limiter les contenus dangereux, et utilisé la recherche pour comprendre l'impact de notre plateforme sur la société afin de continuer à nous améliorer".

Version originale : Paige Leskin/Business Insider. Traduit de l'anglais par Albane Guichard.

A lire aussi — Facebook va donner 1 000 $ à des modérateurs forcés de regarder des vidéos horribles

Découvrir plus d'articles sur :