Publicité

YouTube détournerait les utilisateurs des vidéos anti-vaccins, contrairement aux contenus complotistes

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

YouTube détournerait les utilisateurs des vidéos anti-vaccins, contrairement aux contenus complotistes
© BRIDGET BENNETT/AFP via Getty Images
Publicité

La propension de YouTube à enfermer les gens dans des "bulles de filtres" a été étudiée à plusieurs reprises par des journalistes et des universitaires, et une nouvelle étude la montre en action. Tanushree Mitra et ses collègues du département d'informatique de l'université Virginia Tech, à Blacksburg, dans l'État américain de Virginie, ont analysé la façon dont les recommandations algorithmiques de YouTube poussaient les vidéos de théories du complot.

Les universitaires ont examiné la façon dont YouTube suggère des vidéos liées aux théories complotistes liées au 11 septembre, aux chemtrails, à l'idée que la Terre est plate, que nous n'avons pas atterri sur la Lune et que les vaccins sont nocifs ou ne fonctionnent pas. "Nous avons vu tous ces reportages et articles dans les médias sur la façon dont YouTube pousse les gens dans des bulles de filtre", raconte Tanushree Mitra. "Mais je me disais : 'Tous ces travaux journalistiques en parlent sans aucune preuve empirique. Est-ce que cela se produit vraiment ?'"

Mateusz Slodkowski/Getty Images

Ils ont rassemblé 56 475 vidéos sur ces cinq sujets et ont vérifié les algorithmes de recherche et de recommandation de YouTube. Ils ont créé des comptes robots sur YouTube qui se sont ensuite occupés de ces sujets et de ces vidéos en les regardant et en les recherchant. Ces comptes robots recherchaient des vidéos autour d'un sujet particulier en utilisant des termes de recherche communs, et observaient ce qui était recommandé par l'algorithme de YouTube.

Ils ont constaté que YouTube était plus efficace pour sortir les gens d'une bulle de filtres anti-vaccins que d'autres théories du complot.

"Même si vous cherchez des vidéos anti-vaccins, les recommandations de l'algorithme vous dirigent toujours vers des vidéos de fact-checking ou des vidéos pro-vaccins", raconte Tanushree Mitra. "Ce n'est pas le cas pour les autres, ce qui prouve potentiellement que cela vous poussera dans une bulle de filtres si vous cherchez des vidéos liées aux chemtrails, mais pas aux vaccins".

Une étude similaire a impliqué des comptes robots qui ont regardé différents types de vidéos liées à chaque sujet. Une partie des comptes robots ne regardait que des vidéos anti-vaccins, une autre regardait des vidéos démystifiant les théories de conspiration anti-vaccins, et une troisième consommait un régime vidéo qui soutenait et démystifiait à la fois la désinformation sur les vaccins.

"Nous avons constaté que, même si le comportement consiste à regarder des vidéos anti-vaccins, l'algorithme donne toujours des recommandations pro-vaccins dans l'encadré 'À suivre', ce qui n'était pas le cas pour les autres sujets", poursuit Tanushree Mitra. "C'est là que réside la différence entre les sujets sur les vaccins et les autres sujets que nous avons vérifiés".

Tanushree Mitra émet l'hypothèse que YouTube assure une surveillance plus active des vidéos anti-vaccins étant donné l'importance actuelle du sujet dans la lutte mondiale contre le Covid-19. "Beaucoup d'articles de presse portent sur la façon dont ces plateformes en général poussent les gens vers des controverses sur les vaccins", dit-elle. "Il n'est donc pas surprenant que ce soit le premier sujet qu'ils veulent aborder, et que les autres ne soient pas une priorité pour eux".

Un porte-parole de YouTube a réagi à l'étude : "Nous nous sommes engagés à fournir des informations utiles et opportunes, notamment en augmentant les contenus qui font autorité, en réduisant la diffusion d'informations erronées et en montrant des panneaux d'information, afin d'aider à combattre la désinformation. Nous avons également des politiques claires qui interdisent les vidéos qui encouragent les contenus nuisibles ou dangereux, l'usurpation d'identité ou les discours haineux. Lorsque des vidéos qui enfreignent nos politiques nous sont signalées, nous les supprimons rapidement".

Version originale : Chris Stokel-Walker/Business Insider

A lire aussi — Le médecin en chef de Moderna avertit que le vaccin n'empêchera pas la transmission du virus

Découvrir plus d'articles sur :