Oui, les assistants vocaux peuvent se déclencher à l’aide d’ultrasons. Cela n’est pas très dangereux en l’état, mais cela montre à quel point les nouveaux usages liés aux nouvelles technologies amènent leur lot de vulnérabilités.Des chercheurs en sécurité informatique de l’Université de Zheijiang, en Chine, ont mis au point une méthodologie fort astucieuse pour déclencher les assistants vocaux (document en .pdf). En effet, l’équipe a remarqué que les micros des appareils comme Google Home, Siri sur iPhone ou Amazon Echo étaient particulièrement sensibles. Elle a alors conçu une méthode pour synthétiser les sons des commandes classiques que n’importe quel humain pourrait donner sous la forme de sons à des fréquences que les humains ne peuvent pas entendre (des fréquences supérieures à 20 kHz).
- DolphinAttack: Alexa, Siri and more are vulnerable to ‘silent’ hacking – The INQUIRER – 07/09/2017
- DolphinAttack: Hackers could easily hijack Siri, Alexa and other voice assistant apps exploiting bug – International Business Times – 07/09/2017
- Dolphins inspire ultrasonic attacks that pwn smartphones, cars and digital assistants – The Register – 07/09/2017
- Hackers Can Take Control of Siri and Alexa By Whispering To Them in Frequencies Humans Can’t Hear – Slashdot – 07/09/2017
- Hackers can trick voice services such as Alexa and Siri with ‘silent’ commands – IT Pro Portal – 07/09/2017
- Ils hackent des smartphones et des gyropodes avec des… ultrasons – 01net – 07/09/2017
- Siri et Google Assistant se font pirater aux ultrasons – Tom’s Guide – 07/09/2017