Un nuovo studio dimostra che è possibile nascondere input in grado di attivare i gadget casalinghi dentro dialoghi o clip musicali. E potenzialmente spingerli a “tradirci”
La stagione degli speaker sta decollando anche nei mercati esterni agli Stati Uniti. Se il discorso potrebbe valere anche per i semplici assistenti virtuali degli smartphone, l’arrivo di dispositivi da salotto come Google Home e Google Home Mini anche in Italia ha dato plasticità al maggiordomo digitale che, sempre pronto ad attivarsi col comando giusto (in questo caso il classico “Hey Google” oppure “Ok Google”), ci fornisce risposte a dubbi, richieste e intrattenimento. Quanto arriverà la linea Echo di Amazon, con la versatile Alexa a bordo, e l’HomePod di Apple, il quadro sarà completo.
La ricerca
Eppure, senza cadere nell’allarmismo, il fatto che questi dispositivi vivano costantemente – se collegati all’alimentazione – in uno stato di stand by silente, cioè in attesa di ricevere il comando per attivarsi, può sollevare qualche timore. Per esempio immaginando che qualche input indistinguibile all’orecchio umano, ma magari nascosto in qualche audio ricevuto sullo smartphone o in qualche contenuto video, possa attivare gli intelligenti speaker a nostra insaputa. E metterli magari in registrazione o imporre loro di gestire i comandi domotici.
Il “dolphin attack”
In gergo si chiama “dolphin attack” (dal fatto che i delfini riescono a sentire alcune frequenze inarrivabili agli esseri umani) e, se era già stato sondato nel 2016 da un’indagine che aveva provato la possibilità di far scattare alcuni comandi di base, una nuova indagine illustrata dal New York Times l’ipotesi è stata testata in modo più concreto. Anche se non direttamente con gli assistenti digitali ma con software di riconoscimento dei dialoghi.
Secondo lo studio, sarebbe possibile nascondere dei comandi audio malevoli all’interno di altre registrazioni in modo evidentemente indistinguibile all’orecchio umano. I ricercatori sono riusciti nell’impresa utilizzando tracce sia musicali che contenenti semplici dialoghi. In entrambi i casi i cambiamenti non sono stati identificabili. Eppure, all’interno di una clip musicale di appena 4 secondi sono stati in grado di mimetizzare il comando “Okay Google naviga su Evil.com”. Lo stesso è stato possibile con un breve frammento della frase generica “without the dataset the article is useless”.
Dunque, in entrambe le situazioni è stato impossibile individuare i messaggi nascosti. Sì, c’era una leggera distorsione nelle clip manomesse ma solo le sensibilità più sopraffine potrebbero accorgersene. In ogni caso, i test si possono ascoltare qui.
Le implicazioni per i colossi hi-tech
Al netto dell’esperimento in sè, rimangono le implicazioni per i colossi hi-tech, che ormai da tempo hanno fatto degli smart speaker (e anche delle loro versioni con display, Google è pronta a lanciarle nel corso dell’estate) un nuovo campo di battaglia. D’altronde le cronache testimoniano già che alcune semplici pubblicità sono state in grado di attivare inavvertitamente gli smart speaker: non è poi fantascienza immaginare che, tramite una canzone, una clip video o un qualsiasi altro stimolo audio manomesso si possa tentare di “craccare” gli assistenti digitali. Spingendoli a gestire i comandi della nostra casa: non si tratta solo di far riprodurre una canzone o ascoltare le previsioni del tempo. Molti hanno collegato a Google Home & co gadget domotici, serrature smart e conti bancari.