Face aux critiques, YouTube annonce de nouvelles mesures anti-harcèlement

Accusée de laxisme face au cyberharcèlement, YouTube a annoncé une refonte de sa réglementation sur le sujet. Shutterstock

Alors que les réseaux sociaux peinent à enrayer la profusion de discours haineux sur leurs plateformes, YouTube a annoncé mercredi 11 décembre une série de mesures censées renforcer sa lutte contre le cyberharcèlement. Les contenus insultants visant la race, l'orientation sexuelle ou le genre seront désormais systématiquement retirés de la plateforme. "Cela s'applique à tout le monde, aux individus comme aux créateurs de contenus et aux responsables politiques", a souligné Matt Halprin, vice-président du réseau social en charge de la confiance et de la sécurité, dans un post de blog

Susan Wojcicki, la directrice générale de la filiale de Google, avait indiqué le 21 novembre dernier que la plateforme allait prochainement mettre à jour son règlement ayant trait au cyberharcèlement, sans donner davantage de détails. Jusqu'à ce mercredi, donc. YouTube a ajouté qu'en plus des attaques explicites, les menaces "voilées et implicites" seraient également prohibées. Des termes qui englobent les contenus simulant un acte violent envers un individu ou des propos insinuant qu'un passage à l'acte violent pourrait arriver.

Les chaînes qui enfreindraient à plusieurs reprises le règlement relatif au harcèlement n'auraient quant à elles plus accès aux revenus publicitaires générés par leurs contenus — et pourraient se voir purement et simplement retirées de la plateforme en cas de récidive.

Recours à l'intelligence artificielle

La nouvelle réglementation s'appliquera en outre aux commentaires, que la plateforme tente déjà de contrôler tant bien que mal. Durant le seul troisième trimestre de l'année en cours, YouTube a indiqué en avoir retiré plus 16 millions — spécifiquement pour des raisons de harcèlement — et craint de voir ce chiffre augmenter en 2020 du fait de l'application des nouvelles mesures. La plateforme va également généraliser une technique de modération basée sur l'intelligence artificielle, qui était en expérimentation jusqu'à maintenant : après avoir identifié des commentaires potentiellement insultants, le programme en avertit les créateurs, qui décident ensuite de laisser ces commentaires en l'état ou de les retirer. 

À lire aussi — Voici les vidéos les plus vues sur YouTube en France cette année

Ces annonces interviennent au moment où YouTube clôt une année 2019 pour le moins tumultueuse. Malgré des investissements importants effectués depuis 2017 pour renforcer sa politique de modération, la plateforme reste sous le feu des critiques. À l'instar de Facebook et Twitter, le réseau social est accusé de laisser prospérer le harcèlement en ligne, ainsi que les discours haineux et extrémistes. En juin dernier, YouTube a été pointé du doigt pour ne pas avoir retiré des vidéos de Steven Crowder, dans lesquelles ce commentateur d'extrême-droite tenait des propos homophobes à l'encontre d'un journaliste gay d'origine hispanique, Carlos Maza.

La plateforme avait justifié sa décision par le fait que les propos de Steven Crowder s'inscrivaient dans des vidéos longues et portant sur de multiples autres sujets. La nouvelle réglementation, qui devrait simplifier le retrait de ce type de contenus, n'a pourtant pas convaincu Carlos Maza. "YouTube ne met en place ce genre de mesures que pour distraire les journalistes du vrai sujet : la non-application de ses propres règles", a-t-il estimé sur Twitter.

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : Voici ce qu'une vidéo YouTube à 150 millions vues peut vous faire gagner

Les meilleurs comptes dénichés sur TikTok en 2019