Download_on_the_App_Store_Badge_FR_RGB_blk_100517

L'algorithme d'Instagram semble mettre en avant les photos dénudées dans le feed des utilisateurs

L'algorithme d'Instagram semble mettre en avant les photos dénudées dans le feed des utilisateurs
© Shona Ghosh/Business Insider

Instagram semble favoriser les photos d'influenceurs et d'influenceuses dénudé(e)s, et les mettrait en avant dans le feed des utilisateurs, selon un nouvel article publié par Algorithm Watch. Cet organisme de recherche sur la prise de décision algorithmique a recueilli des données auprès de 26 utilisateurs d'Instagram volontaires, afin de voir quelles photos étaient les mieux placées dans leur feed, parmi celles publiées par un groupe de 37 influenceurs sélectionnés.

Cette étude a été réalisée à l'aide d'une extension de navigateur, qui a automatiquement ouvert la page d'accueil d'Instagram à intervalles réguliers et a analysé les photos qui apparaissaient. Au total, 2 400 photos de février à mai 2020 ont été analysées. Sur cette période, 21% des photos publiées par les influenceurs sélectionnés contenaient une personne à moitié dénudé (femmes en sous-vêtements ou en maillot de bain, ou hommes torse nu.) Mais dans les feed Instagram des volontaires, ces photos représentaient 30% de toutes les publications de ces comptes.

"Les publications contenant des photos de femmes en sous-vêtements ou en bikini avaient 54% de chances d'apparaître dans le feed de nos volontaires. Les publications contenant des photos d'hommes torse nu avaient 28% de chances d'y apparaître", rapporte l'article.

On n'est pas sûr de ce qui cause ce biais en faveur des photos dénudées

Carl Court/Getty Images

L'article note que sans un audit complet de l'algorithme d'Instagram — ce que Facebook ne permettra probablement jamais puisque cela relève de sa propriété intellectuelle — il est impossible de tirer des conclusions définitives sur les causes de ce biais en faveur des photos dénudées.

Une explication pourrait simplement être que certains utilisateurs s'intéresseraient davantage à ces images, ce qui inciterait l'algorithme à les mettre en avant dans le feed des autres utilisateurs. Si vous et d'autres personnes "aimez" davantage une photo, il est potentiellement plus probable que cette photo apparaisse plus haut dans le feed des autres utilisateurs d'Instagram.

Les auteurs de l'article font également référence à un brevet de 2015 de Facebook, la société mère d'Instagram, qui décrit un système permettant d'analyser le contenu d'une photo pour déterminer si elle pourrait permettre d'obtenir un engagement élevé. Ce brevet indiquait spécifiquement que le système serait capable d'identifier l'"état de déshabillage" des personnes sur les photos.

Il est impossible de dire si l'algorithme se contente de relever la corrélation entre les j'aimes et les photos dénudées ou s'il a été doté de la capacité d'identifier la semi-nudité sur les photos. Facebook dispose d'algorithmes capables de détecter la nudité, puisque Instagram interdit la nudité complète et utilise de tels algorithmes pour retirer les publications contraires à cette règle, mais il n'est pas certain que ces algorithmes soient utilisés pour hiérarchiser les publications dans le feed des utilisateurs.

"Nous ne pouvons pas prouver la causalité, il n'y a pas beaucoup de données qui pourraient le prouver", explique Nicholas Kayser-Bril, un des auteurs de l'article. "La seule façon de savoir exactement comment cela fonctionne serait d'avoir un audit de ce qui se passe exactement sur les serveurs de Facebook, et il n'y a aucune chance que nous puissions le faire dans l'environnement juridique actuel".

Dans un tweet, Nicholas Kayser-Bril a suggéré que l'algorithme pourrait capter le comportement d'une minorité d'utilisateurs d'Instagram qui utilisent la plateforme comme source de porno soft.

En réponse aux auteurs du rapport, Facebook a rejeté l'idée que l'algorithme d'Instagram favorise systématiquement les photos dénudées.

"Cette étude est imparfaite à plusieurs égards et montre une mauvaise compréhension du fonctionnement d'Instagram", a déclaré un porte-parole à Algorithm Watch. "Nous classons les publications de votre feed en fonction du contenu et des comptes qui vous intéressent, et non en fonction de facteurs arbitraires comme la présence de maillots de bain".

Une porte-parole de Facebook a déclaré à Business Insider US que l'entreprise pensait que les échantillons étudiés par Algorithm Watch étaient de trop petite taille.

Mais que l'algorithme puisse repérer la présence de peau sur les photos ou qu'il ne fasse que relever une corrélation, l'impact sur les personnes qui utilisent Instagram pour gagner leur vie est le même.

"Presque tous les créateurs de contenu à qui nous avons parlé ont confirmé qu'ils/elles devaient publier des photos dénudées s'ils/elles voulaient avoir une quelconque portée", a déclaré Nicholas Kayser-Bril.

Selon les chercheurs, Facebook et Instagram ne sont pas assez transparents

Pour Algorithm Watch, la question principale n'est pas de savoir si Facebook encourage intentionnellement les photos dénudées, mais plutôt de savoir s'il est difficile de découvrir comment ou pourquoi cela se produit.

"Dans le secteur de la publicité, si nous devions enquêter, nous pourrions trouver des sources qui pourraient décrire ce qui se passe, qui pourraient expliquer comment les décisions sont prises. Alors qu'ici, dans ce cas, tout ce que nous avons, ce sont nos données, qui sont, comme nous l'avons admis, très peu nombreuses, et puis il y a Facebook qui dit 'Non, ce n'est pas comme ça que ça se passe'", a déclaré Nicholas Kayser-Bril.

La professeure Sandra Wachter, experte en équité algorithmique à l'Oxford Internet Institute, a déclaré à Business Insider US que le manque d'intentionnalité rend en fait les algorithmes plus dangereux que les humains qui prennent des décisions, car de nombreuses lois sur la discrimination exigent une manifestation d'intention pour être applicables.

"Vous pouvez laisser les algorithmes fonctionner à l'infini et ils commenceront à discriminer sans aucune intention, c'est juste quelque chose qui arrive si vous ne prenez pas un rôle actif dans la conception, le déploiement et la supervision de l'algorithme de manière responsable", a déclaré Sandra Wachter.

Sandra Wachter a ajouté que les processus décisionnels de l'algorithme sont obscurs et difficiles à examiner, ce qui les rend encore plus dangereux.

Elle pense que les professionnels qui utilisent Instagram pour promouvoir leur entreprise auraient des raisons légitimes de s'inquiéter du fait que la plateforme favorise systématiquement les images dénudées. "Savoir que vous faîtes face à cela et qu'être habillé d'une certaine manière augmentera la visibilité est quelque chose qui pourrait en fait être un problème parce que ce n'est vraiment pas ce que l'on a envie qu'une plateforme fasse", a déclaré Sandra Wachter.

Obtenir de Facebook que l'entreprise étudie et ajuste l'algorithme ne serait pas non plus sans danger, et Sandra Wachter affirme que la plateforme devrait être extrêmement prudente quant aux répercussions inattendues — une politique globale de réduction de la visibilité des images dénudées pourrait injustement désavantager les utilisateurs qui commercialisent des maillots de bain ou des sous-vêtements, par exemple.

"Je ne pense pas qu'il y ait une solution facile à ce problème, il faut en fait prendre du recul et réfléchir aux conséquences possibles ou aux interventions politiques que vous pourriez mettre en oeuvre, et à ce que cela signifierait réellement dans la pratique", a-t-elle déclaré.

Version originale : Isobel Asher Hamilton/Business Insider. Traduit de l'anglais par Albane Guichard.

A lire aussi — Les influenceurs voyage sur Instagram sont forcés de trouver de nouvelles façons de gagner de l'argent

Découvrir plus d'articles sur :