Download_on_the_App_Store_Badge_FR_RGB_blk_100517

La reconnaissance faciale n'échappe pas aux préjugés raciaux et sexistes, selon une nouvelle étude

La reconnaissance faciale n'échappe pas aux préjugés raciaux et sexistes, selon une nouvelle étude
© Alex Wong/Getty Images

Une étude fédérale américaine d'envergure portant sur le fonctionnement de la reconnaissance faciale a révélé que la technologie était moins efficace pour identifier les femmes et les personnes de couleur que les hommes et les personnes blanches, a annoncé jeudi 19 décembre le National Institute of Standards and Technology (NIST). Les chercheurs ont découvert que les logiciels de reconnaissance faciale produisaient des taux de fausse concordance plus élevés pour les Noirs et les Asiatiques que pour les Blancs.

Selon les algorithmes utilisés, le logiciel avait un taux d'erreur 10 à 100 fois supérieur pour ces groupes. L'étude a également révélé que les femmes étaient plus souvent mal identifiées que les hommes dans la plupart de cas. La population amérindienne avait le taux le plus élevé de mauvaise concordance.

"Bien qu'il soit généralement incorrect de faire des déclarations à travers les algorithmes, nous avons trouvé des preuves empiriques de l'existence de différences démographiques dans la majorité des algorithmes de reconnaissance faciale que nous avons étudiés", a déclaré Patrick Grother, chercheur au NIST et auteur principal du rapport, dans un communiqué. "Ces données seront utiles aux décideurs, aux développeurs ainsi qu'aux utilisateurs finaux pour réfléchir aux limites et à l'utilisation appropriée de ces algorithmes".

Durant l'année écoulée, de nombreux services de forces de l'ordre à travers les États-Unis ont commencé à recourir à la reconnaissance faciale afin de suivre les mouvements des personnes et identifier des suspects. Les défenseurs des libertés civiles se sont opposés à cette dynamique croissante, et certaines villes ont interdit à leurs services de police de recourir cette technologie.

À lire aussi — Les citoyens chinois doivent maintenant scanner leur visage pour accéder à internet ou obtenir un numéro de téléphone

Pour Jay Stanley, analyste au sein de l'Union américaine pour les libertés civiles (ACLU), l'étude du NIST prouve que la reconnaissance faciale est une "technologie dystopique" ; il a par ailleurs demandé aux organismes gouvernementaux de cesser de l'utiliser. L'ACLU s'est toujours opposée à la reconnaissance faciale et a entrepris une action en justice contre le gouvernement fédéral pour qu'il divulgue les détails de son utilisation des logiciels fabriqués par Amazon et Microsoft.

"Même les scientifiques du gouvernement confirment maintenant que cette technologie de surveillance est imparfaite et biaisée", a souligné Jan Stanley. "Une fausse correspondance peut conduire à des vols manqués, de longs interrogatoires, des placements sur liste de surveillance, des contrôles de police tendus, de fausses arrestations, ou pire."

L'étude du NIST vient confirmer les hypothèses d'études précédentes, qui estimaient que la technologie était biaisée par des préjugés raciaux et sexistes. Les chercheurs du Massachusetts Institute of Technology (MIT) ont découvert que le logiciel de reconnaissance faciale d'Amazon, baptisé Rekognition, avait un taux d'erreur supérieur dans l'identification des personnes noires par rapport aux individus blancs — Amazon a critiqué l'étude, en arguant que les chercheurs utilisaient le logiciel de façon incorrecte.

A lire aussi — La reconnaissance faciale d'Amazon peut maintenant détecter la peur

Amazon ne faisait pas partie des 99 développeurs de logiciels de reconnaissance faciale testés par le NIST. Selon le Washington Post, la société n'a pas souhaité mettre son logiciel à disposition pour l'étude. Intel, Microsoft, Panasonic, SenseTime et Vigilant Solutions ont de leur côté accepté d'y participer. Un porte-parole d'Amazon n'a pas donné suite à la demande d'entretien de Business Insider US. La firme de Seattle avait déclaré par le passé que son logiciel était basé dans le cloud et qu'il devrait être modifié afin de subir le test du NIST.

L'étude fédérale a aussi révélé que les logiciels de reconnaissance faciale fabriqués par des entreprises asiatiques étaient moins susceptibles de mal identifier les visages asiatiques. "Ces résultats montrent que l'utilisation de données plus diversifiées dans la conception des logiciels pourraient produire des résultats plus équitables, s'il était possible pour les développeurs d'utiliser ces données", a déclaré Patrick Grother dans un communiqué.

Version originale : Aaron Holmes/Business Insider US

Business Insider
Découvrir plus d'articles sur :