DolphinAttack, la tecnica che permette di hackerare gli assistenti vocali attraverso gli ultrasuoni.


A quanto pare è possibile prendere il controllo di tutti i principali assistenti vocali attraverso lo sfruttamento degli ultrasuoni; o almeno questo è quanto hanno fatto sapere di recente alcuni ricercatori cinesi della Zhejiang University, i quali hanno scoperto una grave vulnerabilità e l'hanno descritta all'interno di uno studio scientifico pubblicato dalla Cornell University Library. In pratica questa tecnica è stata rinominata "DolphinAttack", (molto probabilmente per via del fatto che anche i delfini utilizzano gli ultrasuoni), e, come già anticipato, è in grado di mettere a rischio in particolar modo i dispositivi Apple che utilizzano Siri, quelli Google che integrano Ok Google, (noto anche come Google Now), quelli di Amazon con Alexa e quelli Microsoft che possiedono Cortana. In sostanza entrando un po' più nei dettagli, questo sistema si basa su ultrasuoni che non possono essere sentiti dall'orecchio umano, ma che vengono percepiti dal microfono e decodificati dal software utilizzato dell'assistente vocale: il risultato è che il controllo su quest'ulitmo passa nelle mani di altre persone. Inoltre il tutto avviene sfruttando una tecnologia abbastanza semplice che richiede solamente uno smartphone, un piccolo speaker ed un amplificatore per produrre gli ultrasuoni. Motivo per il quale adesso in molti si stanno chiedendo perché vengano realizzati apparecchi che possano riconoscere ed essere controllati da ultrasuoni, non producibili da una voce umana; anche se la risposta non è univoca. Difatti se da una parte si potrebbe spiegare con il fatto che gli ultrasuoni vengano usati per facilitare il riconoscimento della voce umana, (grazie alla comparazione di un suono che li contiene con un altro che al contrario non li mostra), dall'altra si pensa che molte aziende vogliano utilizzare gli ultrasuoni per far comunicare tra loro i vari dispositivi, (da qui la necessità che i microfoni riconoscano anche queste frequenze). Tuttavia entrambe le ipotesi dimostrano come i suoni fuori dallo spettro udibile dell'uomo abbiano una loro utilità dal punto di vista tecnologico. Ad ogni modo fortunatamente questa tecnica può essere utilizzata soltanto a distanza ravvicinata: va da sé che gli assistenti vocali di dispositivi in casa risultano essere difficili da hackerare, ma non per questo sono sicuri al 100%. Comunque sia per il momento l'unico modo per potersi difendere dal "DolphinAttack" rimane quello di disabilitare l'impostazione che mantiene sempre possibile la comunicazione con l'assistente vocale; anche se in questo modo ci si ritrova, infine, nella situazione paradossale di non poter più utilizzare i vari assistenti vocali realizzati appositamente per ricevere ordini o richieste dagli utenti in qualsiasi momento.

Di seguito un breve video d'esempio:

Commenti