Les assistants vocaux se sont multipliés ces derniers mois et tous veulent prendre place au sein de votre foyer. Mais que l’on opte pour Alexa, le HomePod ou encore Google Home, comment être sûr de ne pas être écouté et espionné à son insu?
Écoute sauvage
Les enceintes connectées permettant de contrôler son environnement par la voix, leurs micros sont continuellement en veille afin de détecter les mots déclencheurs qui l’activeront (“Dis Siri”, “Ok Google”, etc.). On pourrait donc légitimement se poser la question si celles-ci nous espionnent et enregistrent nos conversations en continu.
C’est un fait qu’elles enregistrent en permanence les conversations, mais les constructeurs assurent que la plupart des enregistrements sont régulièrement supprimés et ne sont pas envoyés sur le net. En principe, rien n’est transmis en dehors de l’appareil sauf quand il reconnaît la formule qui l’active. La commande de l’utilisateur est alors transmise aux serveurs de l’entreprise, qui génèrent alors une réponse.
Comme tout dispositif connecté, les enceintes connectées ne sont pas à l’abri d’une faille qu’un pirate à l’affût pourra exploiter.
Aux États-Unis par exemple, Alexa Amazon a enregistré une conversation à l’insu de sa propriétaire et l’a envoyé à l’un de ses contacts. Un cas rare dû à une mauvaise perception d’un mot qui a réveillé l’enceinte et a ensuite, par un enchaînement de quiproquos, envoyé un mail à un tiers.
Côté piratage pur, les fichiers audio envoyés aux centres de données sont chiffrés, ce qui empêche en principe les pirates d’utiliser votre enceinte comme dispositif d’écoute.
Les données captées à des fins commerciales
Lors d’une demande (jouer sa musique, obtenir une recette de cuisine, etc.), l’enceinte enregistre la requête de l’utilisateur et transmet les mots prononcés aux serveurs de l’entreprise qui les analysent. Ce qui signifie que des informations peuvent être au passage récupérées à des fins commerciales. Comme sur un moteur de recherche ou sur les réseaux sociaux, les informations sont captées et utilisées par les annonceurs qui peuvent mieux cibler leurs publicités (même si le RGPD a régulé quelque peu les choses).
Il ne faut pas se leurrer, Google et Amazon adoptent un modèle économique basé sur les revenus publicitaires et partagent ainsi les données utilisateurs. Quant à Apple et son HomePod, même si il est proposé à un prix deux fois plus élevé que la concurrence, il fait de même et ne se contente pas exclusivement des seules ventes de son produit.
Même si tous affirment que la diffusion directe de publicité sur l’enceinte n’est pas leur priorité, les choses vont inévitablement évoluer. Amazon a d’ailleurs déjà déposé un brevet afin de proposer des pubs sur base des interactions avec son assistant…
Quid de la conservation des données
Difficile de savoir exactement combien de temps les données personnelles sont conservées sur les serveurs des constructeurs. Les experts de La Quadrature du net disent qu’il est à craindre que rien ne soit jamais supprimé. Le stockage des données numériques ne coûte matériellement pas cher et il est possible de conserver des copies exactes des données collectées pour “l’éternité numérique”, comme ils indiquent.
Rassurez-vous, les enceintes produites par Google et Amazon disposent toutefois d’un historique des données vocales envoyées sur leurs serveurs et vous permettent de les supprimer une à une, ou sur une période donnée. Apple ne dispose pas de fonction similaire dans les paramètres de son HomePod mais la firme assure qu’elles sont cryptées et qu’elles restent anonymes, de sorte que même l’entreprise n’est pas en mesure de les consulter.
Des humains derrière l’appareil
Rien n’empêche que des humains puissent écouter les requêtes prononcées à un assistant virtuel. Cela se fait même afin de rectifier les erreurs de l’intelligence artificielle afin que celles-ci ne se reproduisent dans le futur. Ainsi, une jeune femme chargée de corriger les erreurs de transcription de Cortana (la technologie de reconnaissance vocale de Microsoft) a témoigné à La Quadrature du net qu’elle écoutait les enregistrement audio des utilisateurs et qu’elle devait rectifier le cas échéant un texte lui montrant ce que Cortana avait compris. Elle a ainsi entendu à l’insu des utilisateurs des informations sensibles (des numéros de sécurité sociale, par exemple).
Si elles ne sont “que” des machines, les enceintes connectées bénéficient de l’aide d’êtres humains pour apprendre à interpréter correctement les requêtes et répondre aux habitudes des utilisateurs. Ces transcripteurs d’intelligence artificielle trient vos requêtes et écoutent les propos pour parfaire le service. Il est donc question de faire aveuglément confiance à ces travailleurs de l’ombre payés par des entreprises spécialisées et qui sont parfois situés dans votre pays, ou dans d’autres pays disposant de travailleurs précaires francophones comme la Tunisie, le Maroc ou Madagascar.
Les solutions pour retrouver son intimité perdue
S’il n’y a pas à proprement parler de bouton marche/arrêt sur les enceintes connectées, on peut néanmoins en désactiver le micro. Google Home et Amazon Echo disposent d’un bouton prévu à cet effet. Quant au HomePod d’Apple, il faut passer par l’iPhone ou tout simplement lui demander d’arrêter d’écouter.
Il est également recommandé de limiter la connexion à des services réellement utiles. Enfin, si vous voulez être sûr de ne pas être écouté, il reste la dernière solution, la plus simple et la plus radicale : débrancher l’appareil.
No comments:
Post a Comment