Tous les principaux assistants vocaux — Siri d'Apple, Alexa d'Amazon, ou l'Assistant Google — ne sont pas aussi privés que vous pourriez le penser. Comme nous l'avons écrit en avril dernier, afin d'entraîner et d'améliorer leurs assistants intelligents comme Alexa, les géants de la tech font appel à des employés ou à des sous-traitants pour passer en revue manuellement des extraits de conversations, dans le but de contrôler la qualité des réponses. Une nouvelle enquête d'Alex Hern du Guardian, publiée vendredi 26 juillet, nous éclaire davantage sur le fonctionnement réel de Siri.

Le journaliste s'est entretenu avec un sous-traitant anonyme qui effectue des contrôles de qualité sur Siri et qui s'est dit préoccupé par la fréquence à laquelle l'assistant vocal recueille "des informations personnelles extrêmement sensibles". Selon la source du Guardian, ceux qui travaillent "régulièrement" sur Siri entendent des enregistrements de personnes ayant des rapports sexuels, des rendez-vous professionnels, des médecins et des patients ayant des discussions médicales privées, et même des personnes qui dealent de la drogue entre elles.

A lire aussi — La caméra de l'iPhone 11 proposerait une nouvelle fonctionnalité pour mieux cadrer vos photos

Que l'activation de Siri ait été intentionnelle ou non — et ce n'est souvent pas le cas, comme l'explique le sous-traitant anonyme, car Siri peut par exemple penser que le son "zip" est un déclencheur —, ces personnes doivent tout de même noter les réponses de Siri. Ils évaluent si l'activation était accidentelle, entre autres critères, ainsi que si la réponse de Siri était appropriée ou utile, ou si la question posée à Siri fait partie des choses que l'assistant vocal doit savoir faire.

Nous avons contacté Apple à ce sujet, mais nous n'avons pas encore eu de réponse. La société a indiqué au Guardian que "moins de 1%" des activations quotidiennes de Siri sont examinées et qu'aucune demande de Siri n'est associée aux identifiants Apple de l'utilisateur, "afin de respecter les strictes exigences de confidentialité d'Apple". Mais la source interrogée par le Guardian a déclaré que ces enregistrements Siri "sont accompagnés de données d'utilisateur indiquant l'emplacement, les coordonnées et les données de l'application", qu'Apple pourrait utiliser pour savoir si une demande a été traitée ou non.

L'enquête révèle d'importantes sources d'inquiétude en matière de protection de la vie privée dans ce processus. Selon le sous-traitant anonyme qui s'est exprimé, les employés chargé du contrôle qualité de Siri pourraient utiliser ces renseignements personnels à mauvais escient parce qu'il n'existe "aucune procédure particulière pour traiter les enregistrements sensibles".

"Il n'y a pas beaucoup d'examen des profils des personnes qui y travaillent, et la quantité de données que nous sommes libres de consulter semble assez large", a déclaré le sous-traitant au Guardian. "Il ne serait pas difficile d'identifier la personne que vous écoutez, surtout avec des déclenchements accidentels — adresses, noms, etc... Ce n'est pas comme si on encourageait les gens à tenir compte de leur vie privée."

Selon Apple, l'entreprise conserve les enregistrements vocaux de Siri pendant six mois ; par la suite, Apple conserve une copie des données sans aucun type d'identifiant pendant deux ans, afin d'améliorer les performances et la précision de Siri. Certaines entreprises recueillent plus d'informations d'identification — lorsque vous utilisez Alexa, par exemple — mais contrairement à Amazon et Google, Apple ne permet pas aux utilisateurs de choisir comment leurs enregistrements pourraient être utilisés, à moins que vous ne désactiviez complètement Siri.

Vous pouvez lire l'enquête en intégralité sur le site du Guardian (en anglais).

Version originale : Dave Smith / Business Insider

Vous avez apprécié cet article ? Likez Business Insider France sur Facebook !

Lire aussi : 9 chiffres impressionnants sur la fortune de Mark Zuckerberg