Oui, les assistants vocaux peuvent se déclencher à l’aide d’ultrasons. Cela n’est pas très dangereux en l’état, mais cela montre à quel point les nouveaux usages liés aux nouvelles technologies amènent leur lot de vulnérabilités.Des chercheurs en sécurité informatique de l’Université de Zheijiang, en Chine, ont mis au point une méthodologie fort astucieuse pour déclencher les assistants vocaux (document en .pdf). En effet, l’équipe a remarqué que les micros des appareils comme Google Home, Siri sur iPhone ou Amazon Echo étaient particulièrement sensibles. Elle a alors conçu une méthode pour synthétiser les sons des commandes classiques que n’importe quel humain pourrait donner sous la forme de sons à des fréquences que les humains ne peuvent pas entendre (des fréquences supérieures à 20 kHz).
DolphinAttack: Alexa, Siri and more are vulnerable to ‘silent’ hacking – The INQUIRER – 07/09/2017
DolphinAttack: Hackers could easily hijack Siri, Alexa and other voice assistant apps exploiting bug – International Business Times – 07/09/2017
Dolphins inspire ultrasonic attacks that pwn smartphones, cars and digital assistants – The Register – 07/09/2017
Hackers Can Take Control of Siri and Alexa By Whispering To Them in Frequencies Humans Can’t Hear – Slashdot – 07/09/2017
Hackers can trick voice services such as Alexa and Siri with ‘silent’ commands – IT Pro Portal – 07/09/2017
Ils hackent des smartphones et des gyropodes avec des… ultrasons – 01net – 07/09/2017
Siri et Google Assistant se font pirater aux ultrasons – Tom’s Guide – 07/09/2017