Depuis déjà plusieurs années, les suspicions planent quant à la mise sur écoute de particuliers par les géants du web. Mais récemment, un employé d’Apple relayé par The Guardian a expliqué que certains sous-traitants de la firme de Cupertino écoutaient régulièrement des conversations d’utilisateurs à travers Siri, l’assistant vocal de l’entreprise qui équipe les iPhone, Apple Watch et autres iPad.
Le lanceur d’alerte confie au média britannique : “Il y a eu d’innombrables exemples d’enregistrements comportant des discussions privées entre médecins et patients, des accords commerciaux, des relations apparemment criminelles, des relations sexuelles, etc. Ces enregistrements sont accompagnés de données utilisateurs indiquant l’emplacement, les coordonnées et les données d’applications”.
L’assistant vocal est démarré généralement par les “mots d’activation” comme “Hey Siri” en anglais ou « Dis Siri » en français. Mais parfois, cela peut être tout autre chose. Gavin Williamson, l’ancien secrétaire d’État britannique à la défense, en a fait l’expérience lors d’une intervention au parlement où il était question de … la Syrie.
Apple a tenté de calmer le jeu en expliquant que “seulement une petite partie des demandes de Siri sont analysées pour améliorer le logiciel. Les demandes d’utilisateurs ne sont pas associées à l’identifiant Apple. Les réponses Siri sont analysées dans des installations sécurisées et tous les examinateurs sont tenus de respecter les strictes exigences de confidentialité d’Apple”. La firme misait sur le respect de la vie privée, lors du Consumer Electronic Show (CES) de Las Vegas en janvier 2019, en placardant une immense affiche publicitaire où l’on pouvait lire “ce qui se passe dans votre iPhone, reste dans votre iPhone”.
La récente polémique relance les questions élémentaires à la protection des données et l’atteinte à la vie privée des citoyens. Il rappelle l’incident d’avril 2019 où le média américain Bloomberg révélait que la firme américaine Amazon via son assistant vocal Alexa employait des salariés pour écouter les conversations des utilisateurs. Si l’assistant d’Amazon permet de réécouter les requêtes et enregistrements et de les supprimer, Siri, ne le permet pas. Le seul moyen pour les utilisateurs de prévenir ce genre de risques est de simplement désactiver le service.