Quand vous parlez à votre assistant numérique, savez-vous que l’on vous écoute peut-être?

Vous êtes peut-être l’un des 2,5 milliards d’utilisateurs d’assistant vocal numérique comme Siri, ou d’enceinte connectée comme Alexa et Echo. Une enceinte connectée de type assistant personnel vocal est un appareil numérique équipé d’un micro, de hauts parleurs et d’un logiciel de traitement du langage naturel capable d’agir sur ordre vocal des utilisateurs. L’utilisateur d’une enceinte intelligente Echo d’Amazon, par exemple, peut demander à son appareil de lire de la musique, des vidéos, donner la météo ou le trafic routier, ou de communiquer avec d’autres appareils intelligents, tels que les systèmes d’éclairage connectés.

Tandis que ces assistants nous apportent plus de confort dans notre vie quotidienne, un rapport de Bloomberg a récemment révélé qu’Amazon, Apple et Google emploient tous des personnes qui écoutent les enregistrements vocaux de leurs clients à partir de ces appareils, ce qui pose des problèmes de confidentialité pour les utilisateurs.

Beaucoup craignent souvent que les enceintes intelligentes enregistrent tout ce qui se dit à domicile. Ce n’est pas tout à fait vrai. Elles doivent « entendre » les conversations, sinon elles ne seraient pas capables de détecter un mot d’activation comme « Alexa », « Ok, Google » ou « Siri ».  Pour que cela soit possible, tous les principaux assistants enregistrent et analysent de courts extraits audio. Toutefois, si le mot d’activation n’est pas « entendu », le son est ignoré et personne ne peut y accéder.

Les intervenants « écoutent » néanmoins une conversation si le mot d’activation est détecté. Dans ce cas, l’audio est conservé et l’enregistrement se poursuit afin que la demande puisse être envoyée à un service de reconnaissance vocale, où il peut être écouté par une personne.

Pourquoi ces extraits sont-ils écoutés par action humaine ?

La raison principale est que ces assistants intelligents sont en apprentissage permanent.
Chez Amazon, par exemple, les enregistrements sont écoutés par des employés, transcrits, annotés et ensuite renvoyés dans le logiciel Echo. Cela fait partie d’un effort visant à éliminer les lacunes observées dans la compréhension de la parole humaine par Alexa et à l’aider à mieux répondre aux commandes à venir.  Étant donné que ces appareils sont utilisés dans le monde entier, où des millions d’expressions et d’idiomes différents peuvent avoir différentes significations, les assistants numériques peuvent facilement être confus. Par conséquent, pour s’assurer que les assistants peuvent répondre efficacement à cette grande variation de la parole, la transcription des zones dans lesquelles l’assistant a des difficultés constitue un moyen d’améliorer le service que vous recevez. Toutefois, la protection de la vie privée est primordiale pour nous tous et nous savons qu’il est également important d’être en mesure d’empêcher ce processus, si vous décidez de le faire.

Pouvez-vous empêcher les relecteurs humains d’écouter des extraits vocaux ?

La réponse à cette question est en grande partie non, si vous souhaitez toujours utiliser les fonctionnalités vocales de votre smartphone ou de votre assistant numérique. En revanche, en fonction de l’appareil dont vous disposez, vous pouvez désactiver la possibilité pour l’assistant d’écouter toutes les commandes audio à l’avenir.

En effet, les paramètres de confidentialité d’Alexa d’Amazon ne vous permettent pas de désactiver l’enregistrement vocal, néanmoins vous pouvez consulter et supprimer vos enregistrements vocaux et aussi empêcher vos enregistrements d’être utilisés pour améliorer Alexa.  Pour ce faire, rendez-vous dans l’application Alexa, puis sélectionnez Paramètres > Alexa et vos informations personnelles > Gérer la façon dont vos données contribuent à améliorer Alexa.

L’Assistant Google sur votre page d’accueil Google peut être désactivé en utilisant simplement la commande « Ok Google, éteins le microphone ». Il existe également un bouton de micro à l’arrière qui vous permet de le faire manuellement.

Pour désactiver Assistant Google sur votre téléphone, vous avez deux options. Il est possible d’empêcher l’assistant d’écouter les commandes de l’application Google. Sélectionnez l’option Paramètres, l’Assistant Google, Paramètres, Appareils et appuyez sur Téléphone. Vous verrez l’option pour désactiver l’accès avec correspondance vocale, une fonctionnalité toujours à l’écoute de « Ok Google ». Lorsque la correspondance vocale est désactivée, les commandes vocales fonctionnent toujours, mais uniquement sur l’écran d’accueil de votre appareil. Si vous souhaitez aller plus loin, vous pouvez désactiver complètement l’Assistant Google. Toutefois, l’accès à ses fonctionnalités sera également désactivé par tous les moyens (pas seulement la voix).

En deuxième option, vous pouvez refuser à Google l’autorisation d’utiliser un microphone. Recherchez l’icône Paramètres sur votre smartphone Android, appuyez sur Applications et notifications, puis sélectionnez Google. Une fois que vous êtes sur l’écran d’informations de l’application pour Google, appuyez sur Autorisations. Appuyez sur l’interrupteur à bascule situé à côté de Microphone, puis sur Refuser tout de même.

Apple vous permet également de désactiver la capacité de Siri à enregistrer de l’audio. Si vous vous rendez dans le menu Paramètres de votre appareil et sélectionnez Siri et recherche, une option intitulée « Écoutez Hey Siri » et « Appuyez sur Home pour Siri » apparaît. Si vous désactivez ces deux options, Siri sera désactivé de toute fonction audio.

Pour certains, ces informations peuvent sembler dérangeantes, mais elles devraient vous rassurer sur le fait qu’il serait facile de détecter si un haut-parleur renvoyait en permanence des conversations entières à un serveur distant pour analyse. Les chercheurs en sécurité n’ont pas non plus trouvé de preuves suggérant que cela se produise.

Si vous souhaitez obtenir plus d’informations à ce sujet, veuillez consulter notre précédent article sur la sécurité des assistants vocaux ou laisser un commentaire ci-dessous.