Download_on_the_App_Store_Badge_FR_RGB_blk_100517

L’algorithme de Twitter qui recadre les photos accusé de biais raciste

L’algorithme de Twitter qui recadre les photos accusé de biais raciste
Les algorithmes sont-ils aussi racistes que les humains ? C'est ce que suggèrent certains utilisateurs de Twitter. © Unsplash/Moran

Sur Twitter, il est malheureusement courant de tomber sur des tweets et commentaires racistes. Mais les internautes ne seraient pas les seuls à faire preuve de discrimination. L'algorithme du réseau social qui sert à recadrer automatiquement les images publiées aurait lui aussi un biais raciste. C'est en tout cas ce qu'ont cherché à démontrer plusieurs utilisateurs ce weekend, en publiant des montages photos d'une personne à la peau blanche, et d'une autre à la peau noire et en observant laquelle Twitter mettait en avant.

Lorsqu'on publie un tweet avec deux photos, Twitter les recadre en effet automatiquement pour n'en afficher qu'un aperçu. Pour voir les images dans leur intégralité, il faut ensuite cliquer sur chacune d'entre elles. Des internautes ont donc essayé de voir quel visage l'algorithme allait choisir de conserver dans le recadrage. Pour ce faire, ils ont publié deux montages similaires dans un même tweet, l'un avec la photo d'une personne blanche tout en haut de l'image et la photo d'une personne noire tout en bas, et l'autre en inversant les positions.

Comme on peut le voir avec le test réalisé avec les photos du sénateur américain républicain Mitch McConnell et de l'ancien président Barack Obama, l'algorithme semble recadrer automatique l'image sur le visage de la personne blanche.

Un autre test a été effectué avec des personnages des Simpsons, et de plein pied cette fois, ou encore avec un chien beige et un chien noir. L'algorithme semble systématiquement favoriser la couleur de peau, ou de pelage, la plus claire en la mettant en avant dans l'aperçu.

Twitter va analyser son algorithme

Suite aux nombreux tweets et à l'engouement sur le sujet, Twitter a annoncé dimanche 20 septembre que le réseau social allait étudier la question plus en détails pour vérifier si l'algorithme a réellement un biais raciste, et si oui, le corriger.

"Notre équipe avait effectué des tests pour détecter les préjugés avant d'envoyer le modèle de l'algorithme et n'avait pas trouvé de preuves de préjugés raciaux ou sexistes lors de nos tests. Mais ces exemples montrent clairement que nous avons d'autres analyses à faire", a déclaré Liz Kelly, membre de l'équipe de communication de Twitter au média américain Mashable.

Certains internautes se sont amusés à poursuivre le test avec des mots, et non plus des images, pour voir ce que l'algorithme mettrait en avant : "fleur" ou "mort", "Marine Le Pen" ou "Emmanuel Macron", "douceur" ou "violence".

Alors simple coïncidence ou véritable préférence pour les sujets plus propices à la haine ? Les analyses de Twitter le diront prochainement.

A lire aussi — Les algorithmes de YouTube ont supprimé deux fois plus de vidéos que les modérateurs humains pendant le confinement

Découvrir plus d'articles sur :