Download_on_the_App_Store_Badge_FR_RGB_blk_100517

On peut désormais faire appel auprès de la 'Cour suprême' de Facebook pour les contenus signalés laissés en ligne

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

On peut désormais faire appel auprès de la 'Cour suprême' de Facebook pour les contenus signalés laissés en ligne
Le conseil de surveillance de Facebook est chargé d'évaluer des décisions de la plateforme sur certains contenus jugés problématiques. © Thomas Ulrich/Pixabay

La "Cour suprême" du géant des réseaux sociaux se voit octroyer plus de responsabilités. Le conseil de surveillance de Facebook, qui doit bientôt décider si Donald Trump peut revenir sur la plateforme ou non, a étendu ses pouvoirs de modération des contenus, un signe que le groupe californien voit dans ce comité indépendant la solution à ses dilemmes éditoriaux. L'instance, qui examine et tranche les décisions disputées de retrait de contenus sur Facebook ou Instagram, va désormais se pencher aussi sur les publications laissées en ligne malgré des signalements, d'après des communiqués parus mardi 12 avril.

"Permettre aux utilisateurs de faire appel de contenus qu'ils souhaitent voir supprimés de Facebook est une extension significative des capacités du conseil de surveillance", a déclaré Thomas Hughes, directeur du conseil. "Le conseil a été créé pour garantir que Facebook prenne moins de décisions tout seul sur des questions de contenu très importantes, et que de meilleures décisions puissent être prises grâce à un processus indépendant et transparent qui œuvre pour protéger les droits de l'homme et la liberté d'expression", a rappelé le responsable.

À lire aussi — La 'Cour suprême' de Facebook a rendu ses premières décisions sur la modération trop 'vague' du réseau

Le conseil, entré en fonction l'année dernière, a rendu en janvier ses premières décisions, contraignantes pour Facebook.

La plus attendue doit tomber d'ici la fin de la semaine : elle concerne l'ex président américain Donald Trump, banni de Facebook (et d'autres réseaux sociaux) après les émeutes du 6 janvier dernier au Capitole.

'La publicité par ici, l'éditorial par là'

Le milliardaire républicain s'est vu reprocher ses allégations répétées de fraude électorale, sans fondement, et ses propos d'encouragements à ses centaines de partisans qui se sont engouffrés violemment dans le siège du Parlement américain.

Aux États-Unis, l'ostracisation numérique a été largement saluée comme regrettable, mais nécessaire, par la société civile et de nombreux élus. Mais en Europe elle a aussi suscité des critiques d'associations et de dirigeants, comme la chancelière allemande Angela Merkel, inquiets du pouvoir des sociétés technologiques sur la liberté d'expression.

Accusé depuis des années de censurer certaines voix ou au contraire de favoriser la désinformation, le harcèlement et les activités de groupes violents, Facebook a fini par créer ce conseil de surveillance composé d'une vingtaine de membres internationaux et indépendants, qui sont professeurs, juristes, journalistes ou encore défenseurs des droits humains. "Nous sommes contents que le conseil de surveillance étende sa portée et son impact", a assuré Guy Rosen, vice-président en charge de l'intégrité des plateformes du groupe.

Mais pour certains observateurs, le rôle majeur de cette instance montre que Facebook se comporte de plus en plus comme un média qui doit prendre des décisions éditoriales, et non pas comme un hébergeur qui applique un règlement sans enjeux politiques. Le réseau social met en place un modèle avec "la publicité par ici, l'éditorial par là", selon Emily Bell, professeure à l'école de journalisme de Columbia.

Un conseil qui se prononce uniquement sur les cas médiatisés

"C'est ce que fait un média d'information", a-t-elle expliqué sur Twitter. Le travail du fondateur et patron Mark Zuckerberg et des hauts responsables de la firme californienne "consiste à diriger une colossale société de publicité. Le conseil de surveillance devient donc un conseil éditorial par défaut".

À lire aussi — Instagram : de sa création à son rachat par Facebook, 8 anecdotes que vous ignorez sûrement

Mais étant donné la taille du conseil — qui n'a rendu qu'une poignée de décisions et recommandations pour l'instant — Emily Bell et d'autres observateurs doutent de sa capacité à traiter les problèmes de fond au-delà des cas emblématiques et médiatisés.

"Facebook sait qu'il ne peut pas faire de la modération à très grande échelle", a-t-elle conclu. "Ils auront recours aux humains (en plus des systèmes informatiques automatisés, ndlr) pour statuer sur les affaires où ils se sont fait publiquement sonner les cloches".

"Étant donné le manque de transparence et de cohérence de Facebook dans son traitement des contenus mensongers, on ne voit pas comment l'expansion du champ d'action du conseil va permettre de s'assurer que la désinformation soit systématiquement retirée de la plateforme", a remarqué Jo Lukito, professeure à l'école de journalisme de l'université du Texas.

L'instance a rendu une décision mardi sur la décision de Facebook de retirer une vidéo publiée par un utilisateur aux Pays-Bas, montrant un jeune enfant face à des adultes aux visages grimés en noir, déguisés en "Zwarte Piet", un personnage du folklore de la Saint-Nicolas, qui suscite un débat culturel chaque année. Le conseil de surveillance a pris le parti du réseau social, une majorité des membres notant les "stéréotypes racistes" et jugeant qu'il y avait "suffisamment de preuves de préjudices pour justifier le retrait".

À lire aussi — Facebook n'aurait pas appliqué sa politique contre la désinformation à Donald Trump et ses alliés

Découvrir plus d'articles sur :