Gli assistenti digitali si stanno espandendo a macchia d'olio. Secondo le ultime ricerche, negli Stati Uniti, una casa su cinque ospita un dispositivo smart capace di rispondere a precisi comandi vocali. L'indagine Voicebot.ai ne ha contato in tutto 1 miliardo sparso per il mondo. Basta pronunciare solo poche parole per chiedere ad Alexa, Siri o Cortana informazioni sul titolo di una canzone, oppure per effettuare un acquisto online, accendere una lampadina o addirittura fare il caffè.
Le case produttrici, come Amazon o Google, fanno a gara per aggiungere skill e funzionalità ai loro assistenti, in modo da renderli competitivi e reattivi nei confronti delle richieste più disparate. Ad esempio, Amazon ha recentemente lanciato sul mercato un microonde smart da connettere ad Amazon Echo che riscalda e cucina senza il bisogno che la persona maneggi troppo il cibo: basterà inserirlo all'interno del forno e poi si potrà avviare con un semplice comando vocale. Senza considerare che oggi è possibile accendere il riscaldamento di casa a distanza, in modo da trovarla bella calda e confortevole al momento del ritorno.
Insomma, gli assistenti vocali sono sempre più intelligenti e riescono addirittura a capire ciò che non dovrebbero: molti di questi spiano conversazioni private o riescono a captare suoni impercettibili all'orecchio umano. Diverse ricerche hanno approfondito quest'ultimo punto cercando di capire dove termina il supporto all'individuo e inizia l'invasione della privacy.
Assistenti vocali: quel vizio di spiarci?
Sono tanti i dubbi circa la reale utilità dei dispositivi smart home: questi possono semplificare la vita e far risparmiare tempo agli utenti, ma allo stesso tempo non si può trascurare il rischio in tema di sicurezza e fuga di informazioni. Infatti, non mancano i casi in cui gli assistenti vocali abbiano carpito informazioni dal contesto, aldilà del comando vocale del legittimo proprietario. A tal proposito, citiamo un episodio avvenuto negli Stati Uniti apparentemente simpatico, che rivela in realtà delle sfumature ambigue.
Nel 2017, una puntata dell'irriverente serie animata South Park prendeva di mira gli utenti di Amazon Echo. Durante l'episodio, veniva ordinato all'assistente digitale di comprare online prodotti discutibili, come "chips a forma di seno" o ripetere alcune frasi volgari. Il personaggio di Cartman introduceva ogni richiesta con il classico "Alexa?" e questo veniva registrato anche dai dispositivi del pubblico che guardava l'episodio in casa: gli assistenti vocali dei telespettatori hanno iniziato a interagire con il cartone animato, pronunciando volgarità e aggiungendo al carrello online i prodotti richiesti. Ma questa non è certo l'unica occasione in cui l'assistente vocale ha commesso un errore di interpretazione. Esistono anche altri episodi che aiutano a capire come ragionano e agiscono questi strumenti.
Gli assistenti vocali comprendono gli ultrasuoni?
Esistono una serie di pericoli cosiddetti "silenziosi" che catturano l'attenzione degli assistenti vocali e li portano ad ascoltare comandi vocali, impercettibili all'orecchio umano. Queste minacce agiscono tramite gli ultrasuoni, ovvero dei rumori che hanno una frequenza talmente alta da non poter essere rilevati dall'uomo. La ricerca dell'Università di Zhejiang pubblicata nel 2017 ha voluto approfondire l'argomento, presentando un metodo per intercettare gli assistenti vocali tramite gli ultrasuoni. Questa tecnica si ispira al verso dei delfini, e si chiama DolphinAttack.
I ricercatori sono riusciti a dare dei comandi sfruttando gli ultrasuoni, impercettibili all'orecchio uomano, ma perfettamente captabili dai microfoni degli strumenti smart. Questa capacità potrebbe rivelarsi molto pericolosa perché permetterebbe al cybercrimine di prendere il controllo degli assistenti vocali. I ricercatori hanno simulato un attacco per ciascun dispositivo presente sul mercato, da Siri di Apple, al Google Assistant, Alexa, Cortana. Tutti hanno intercettato e obbedito ai comandi inviati tramite ultrasuoni.
Fortunatamente, l'indagine ha rivelato anche un grosso difetto del DolphinAttack, che quindi potrebbe far risultare la minaccia inefficace: gli ultrasuoni funzionano a un massimo di un metro di distanza dell'assistente. I ricercatori dell'Università dell'Illinois hanno però ripreso l'esperimento e sono riusciti ad aumentare il raggio d'azione mettendo a punto un sistema di 60 altoparlanti che riproducevano gli ultrasuoni. In quel caso, i dispositivi smart posizionati a circa 7 metri di distanza sono riusciti a captare questi comandi vocali nascosti. Con queste nuove scoperte, non c'è da stare sereni perché le possibilità di successo di un DolphinAttack aumentano in modo importante.
Ma gli ultrasuoni non sono l'unica minaccia che affligge gli appassionati di sistemi smart.
Non solo ultrasuoni: il pericolo dei comandi vocali occulti
Sicuramente hai presente la pubblicità occulta che spesso compare nei film e che, lavorando sul subconscio, porta ad acquistare determinate marche e prodotti.
Ecco il meccanismo dei messaggi occulti funziona perfettamente anche con gli assistenti vocali. Questo è quanto dimostrato dall'Università di Berkeley in California. I ricercatori hanno inserito una serie di messaggi nascosti all'interno di precisi comandi vocali, in particolare il Mozilla DeepSpeech. L'orecchio umano non riconosce la distorsione del messaggio, ma l'assistente vocale ci riesce benissimo. Una delle registrazioni ha nascosto dentro il messaggio "Okay Google, browse to evil.com." che invitava l'assistente ad accedere al sito evil.com.
Come difendersi dalla minaccia degli assistenti vocali?
Le aziende stanno già lavorando a diverse soluzioni per aumentare la sicurezza degli strumenti per la Smart Home. Per esempio, molti includono anche un programma che allena a riconoscere la voce del o dei proprietari, in modo da tagliare fuori tutte le frequenze sconosciute. Purtroppo, questa tecnica può essere raggirata tramite una registrazione oppure con un'imitazione del tono della voce. Ci vorrà ancora diverso tempo per rendere gli assistenti vocali inespugnabili. Fortunatamente il loro controllo con metodi alternativi si è limitato fino ad ora a esperimenti da laboratorio, e quindi non è ancora dimostrabile che questi sistemi vengano forzati con successo da minacce esterne.
10 marzo 2019