Publicité

YouTube explique comment il lutte contre la désinformation sur le Covid-19

  • Recevoir tous les articles sur ce sujet.

    Vous suivez désormais les articles en lien avec ce sujet.

    Ce thème a bien été retiré de votre compte

YouTube explique comment il lutte contre la désinformation sur le Covid-19
La plateforme assure retirer "près de 10 millions de vidéos par trimestre". © Piqsels
Publicité

YouTube veut montrer qu'il ne reste pas inactif face aux fausses informations. La plateforme a indiqué mercredi 25 août avoir retiré plus d'un million de vidéos contenant de la "désinformation dangereuse sur le coronavirus" depuis le début de la pandémie, au moment où les réseaux sociaux sont accusés de contribuer à la propagation d'idées trompeuses sur le Covid-19 et les vaccins. Le site vidéo de Google a défendu ses techniques de modération des contenus, en insistant sur la priorité donnée aux sources légitimes et fiables, comme l'Organisation mondiale de la Santé (OMS).

"Nous retirons près de 10 millions de vidéos par trimestre, dont la majorité n'atteignent même pas les dix vues", a souligné Neal Mohan, directeur produits du site, dans un communiqué publié mercredi. Mais "si on regarde seulement ce que nous enlevons, on passe à côté des montagnes de contenus que les gens voient vraiment", insiste-t-il. "En tout, entre 0,16% et 0,18% des visionnages concernent des contenus qui enfreignent nos règles."

À lire aussi — YouTube teste une offre pour se débarrasser des publicités durant les vidéos

Selon lui, maintenant, "quand les gens cherchent les nouvelles ou des informations, ils obtiennent des résultats optimisés en termes de qualité, et non de sensationnalisme". Le très populaire service de divertissement et d'information a ainsi donné des détails sur sa stratégie, similaire à celles mises en avant par Facebook et Twitter, deux réseaux régulièrement dans le collimateur des autorités sur ces sujets.

Une tâche difficile

La question de la désinformation autour du Covid-19 et des vaccins a pris de telles proportions qu'en juillet, le président américain Joe Biden a même estimé que Facebook et d'autres plateformes "tuaient" des gens en laissant circuler de fausses informations sur la vaccination contre le Covid. Il était revenu sur ses propos pour préciser que les fausses informations diffusées par les utilisateurs pouvaient "faire du mal à ceux qui les écoutent" et "tuer des gens".

Neal Mohan a évoqué une autre accusation récurrente contre les plateformes et leur modèle économique, fondé sur la publicité et donc l'attention des spectateurs.

"On me demande parfois si nous laissons des contenus provocants parce que nous en bénéficions financièrement. Non seulement ce type de contenus ne réalise pas de bonnes performances sur YouTube — surtout en comparaison avec la musique ou l'humour — mais ils érodent la confiance du public et des annonceurs", a-t-il assuré.

Le directeur a néanmoins admis que dépister les contenus trompeurs n'était pas toujours évident. "Pour le Covid, nous nous basons sur le consensus des experts des organisations de la santé (...). Mais dans la plupart des autres cas, la désinformation est plus difficile à évaluer."

Les patrons de Facebook, Twitter et Google ont été convoqués à plusieurs reprises pour répondre aux questions des parlementaires américains, notamment sur le sujet de la modération des contenus. La solution miracle n'a toujours pas été trouvée.

À lire aussi — Vidéos en privé, résultats filtrés... Google et YouTube durcissent leurs règles de sécurité pour les mineurs

Découvrir plus d'articles sur :