Assistants vocaux : attention aux commandes cachées
Par Arthur de la Brosse - Publié le
Les assistants virtuels ont le vent en poupe et devraient continuer à gagner progressivement du terrain en embarquant dans les différents équipement de nos foyers, une tendance qui n'est toutefois pas sans risque, selon un groupe d'étudiants de Berkeley qui a découvert que ces compagnons virtuels pouvaient être déclenchés par des commandes inaudibles par l'oreille humaine.
D'après cette étude menée depuis environ deux ans, les principaux assistants du marché, dont Siri, Alexa et Google Assistant, pourraient en effet recevoir des commandes dissimulées dans des musiques, des podcasts ou encore des émissions de télévision, et ainsi déclencher des actions à l'insu de leur maitre.
Au cours de leurs travaux, les chercheurs auraient notamment réussi à lancer des appels et à ouvrir des sites web en trompant des smartphones ou des enceintes connectées, en envoyant des requêtes secrètes à travers des musiques diffusées sur un poste de radio.
L'opération, réalisée en modifiant les fichiers audio, aurait notamment permis de réveiller l'assistant virtuel en lui faisant capter les termes
Rien n'indique pour le moment que ces failles ont déjà été exploitées pour des activités malveillantes. Pour rappel, Apple limite les capacités de son compagnon vocal pour les requêtes susceptibles de représenter un risque pour la sécurité de ses clients, en interdisant notamment au HomePod de déverrouiller une porte, idem pour les iPhone et les iPad verrouillés.
Source
D'après cette étude menée depuis environ deux ans, les principaux assistants du marché, dont Siri, Alexa et Google Assistant, pourraient en effet recevoir des commandes dissimulées dans des musiques, des podcasts ou encore des émissions de télévision, et ainsi déclencher des actions à l'insu de leur maitre.
Au cours de leurs travaux, les chercheurs auraient notamment réussi à lancer des appels et à ouvrir des sites web en trompant des smartphones ou des enceintes connectées, en envoyant des requêtes secrètes à travers des musiques diffusées sur un poste de radio.
L'opération, réalisée en modifiant les fichiers audio, aurait notamment permis de réveiller l'assistant virtuel en lui faisant capter les termes
OK Google, ouvre le site Evil.comalors que l'utilisateur entendait une toute autre phrase, ou quelques secondes du requiem de Verdi.
Rien n'indique pour le moment que ces failles ont déjà été exploitées pour des activités malveillantes. Pour rappel, Apple limite les capacités de son compagnon vocal pour les requêtes susceptibles de représenter un risque pour la sécurité de ses clients, en interdisant notamment au HomePod de déverrouiller une porte, idem pour les iPhone et les iPad verrouillés.
Source