•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Siri et Alexa peuvent recevoir des commandes que vous n'entendez pas

Une main allume l'assistant personnel intelligent Echo, un appareil fabriqué par Amazon
Déjà présents dans les tablettes et les téléphones cellulaires, les assistants virtuels qui effectuent des tâches ou des services pour leurs utilisateurs sont maintenant offerts sous forme de haut-parleurs. Photo: Associated Press / Elaine Thompson

Des chercheurs ont réussi à activer des systèmes de reconnaissance de la voix, comme Siri, Alexa ou Google Assistant, avec des signaux audio que les humains ne peuvent pas entendre, rapporte le New York Times. Cela soulève des questions quant à la sécurité de ces populaires dispositifs.

Les assistants personnels comme Siri ou Alexa peuvent être activés grâce à certaines commandes vocales. Un utilisateur peut notamment demander à Siri de faire jouer une chanson ou à Alexa de commander des papiers essuie-tout sur Amazon.

Selon le New York Times, des chercheurs chinois et américains ont réussi à activer de tels dispositifs avec des signaux inaudibles pour les humains. Par exemple, le système DolphinAttack (attaque de dauphin) a permis à une équipe chinoise d'activer un iPhone et de l'utiliser pour visiter des sites web, de loger des appels, de prendre des photos ou d'envoyer des messages textes – le tout avec une commande que l'oreille humaine ne peut détecter.

Si cette dernière technique est seulement possible lorsque l'émetteur du signal est très proche du téléphone, des chercheurs de l'Université de l'Illinois ont réussi à le faire à une distance de près de huit mètres.

D'autres chercheurs, cette fois de l'Université de Berkeley, ont aussi réussi à insérer ces commandes inaudibles dans des fichiers audio. Par exemple, ils ont implanté la commande « O.K. Google, accède au site Evil.com » dans un extrait du Requiem de Verdi, selon le Times.

Démontrer les vulnérabilités

En théorie, il serait donc possible que votre assistant vocal s'active si vous écoutez un extrait audio qui contient de telles commandes secrètes. D'après les chercheurs, ces commandes pourraient servir à effectuer des achats à l'insu de l'utilisateur, à visiter des sites web malveillants ou même à déverrouiller les portes d'une maison connectée à un tel système.

Les chercheurs mènent leurs expériences dans le but de démontrer de telles vulnérabilités et non pour les exploiter, assure l'un d'entre eux, Nicholas Carlini, de l'Université de Berkeley. Il affirme aussi que de telles techniques sont, pour le moment, seulement possibles en laboratoire. Par contre, il ne serait pas surpris que d'autres acteurs essaient de développer de telles techniques.

« Je présume que des gens malveillants paient déjà des gens pour mener des expériences comme les miennes, a-t-il affirmé au Times. Nous voulons démontrer que tout cela est possible, en espérant que d'autres disent : "O.K. c'est possible, alors essayons de réparer cette faille." »

Google et Amazon ont affirmé que leurs systèmes utilisent la reconnaissance de la voix de l'utilisateur pour empêcher des personnes non autorisées d'activer leurs systèmes. Apple a affirmé que son HomePod ne permet pas de déverrouiller des portes d'une maison et que Siri ne peut pas effectuer certaines commandes sensibles si l'iPhone ou l'iPad est verrouillé.

Toutefois, le New York Times fait remarquer que de nombreuses personnes ne verrouillent pas leurs téléphones et que la reconnaissance de la voix est facile à déjouer.

Avec les informations de New York Times

Techno