Les assistants vocaux sont-ils dangereux?

Les assistants vocaux numériques, ou enceintes intelligentes, s’installent dans nos maisons et ils ont de quoi nous séduire. Les assistants les plus populaires sont Alexa d’Amazon, Google Home, Siri d’Apple, Google Now qui se servent d’Internet pour nous permettre de naviguer sur le web, faire des achats, envoyer des e-mails – et de l’Internet des objets pour connecter notre maison. Leur popularité croissante prouve à quel point ils peuvent être utiles, mais comme pour tout objet connecté, il faut faire attention aux éventuelles cyber menaces.  L’éventail d’activités auquel ces enceintes ont accès signifie que si des pirates y avaient accès, ces derniers pourraient se servir de vos informations pour des activités frauduleuses.

N’oubliez pas qu’à moins qu’elle soit éteinte, votre enceinte est toujours à l’écoute

La majorité des assistants sur le marché nécessite une commande vocale pour sortir de veille (« OK Google » ou « Bonjour, Alexa »), ce qui leur permet de comprendre que l’utilisateur est prêt à lui demander quelque chose. Par conséquent, n’importe quelle phrase énoncée à la radio ou à la télévision pourrait déclencher l’assistant. Par exemple, en 2017, Burger King a diffusé une publicité à la télévision conçue pour activer Google Home, dans laquelle un acteur disait « OK Google, qu’est-ce qu’un burger Whopper ? ».

Si cette anecdote peut paraître anodine, une fois allumée, votre enceinte enregistre tout ce qui est dit et le transfert sur des serveurs back-end. Ainsi, si ces serveurs étaient piratés, les fichiers audio seraient exposés et pourraient être volés. Afin d’éviter tout problème, éteignez votre appareil si vous ne vous en servez pas. Sachez que si vous oubliez d’éteindre Alexa, vous pouvez supprimer les enregistrements sauvegardés depuis l’application.

L’appareil pourrait-il être manipulé ?

On peut vite oublier que les enceintes intelligentes sont conçues pour être au cœur de l’Internet des Objets (IdO). Parler avec l’assistant personnel prépare également les utilisateurs à s’habituer à l’avènement de la maison connectée.

En 2018, des chercheurs ont découvert qu’il était possible de transmettre secrètement à Alexa, Google Now, Siri et autres, des commandes vocales totalement inaudibles pour l’oreille humaine mais pas pour l’assistant. Un groupe de chercheurs de l’université de Berkeley a même annoncé dans un article du New York Times avoir réussi à commander un assistant vocal en cachant un message dans une musique. 

C’est pourquoi nous vous déconseillons de connecter votre assistant à toute solution de sécurité domotique telle que les verrous de porte et volets intelligents. Si quelqu’un se rendait compte qu’ils sont connectés à l’IdO, des pirates pourraient ordonner à votre appareil d’ouvrir votre porte d’entrée et s’introduire chez vous.

De la même façon, si les achats effectués via des assistants personnels deviennent une manière de consommer tendance, n’énoncez jamais à haute voix votre numéro de carte bancaire. Si un programme malveillant est installé à votre insu, il pourrait capter les données et vous nuire.

Apprenez à vous protéger et n’oubliez pas ces consignes de sécurité : tout appareil connecté à Internet peut être exposé aux risques de fraude, y compris les enceintes intelligentes. Mettez régulièrement à jour les protocoles de sécurité Internet de votre appareil pour une sécurité optimale. Il vaut mieux prendre des précautions, supprimer régulièrement les fichiers sauvegardés et ne stocker que des informations personnelles essentielles sur ces appareils.