L'intelligenza artificiale e il machine learning sono due dei settori tecnologici in fortissimo sviluppo le cui applicazioni possono aiutare gli utenti in risolvere diverse incombenze.
Tuttavia, trattandosi di un trend in crescita, non è raro che anche i cybercriminali possano utilizzarle per truffe ed estorsioni e per una nuova pratica chiamata “rapimento virtuale”.
Di recente la questione è stata analizzata in un report dal titolo “Virtual Kidnapping: How AI Voice Cloning Tools and Chat GPT are Being Used to Aid Cybercrime and Extortion Scams”, pubblicato da Trend Micro, una società che si occupa di sicurezza informatica, che ha analizzato nel dettaglio la questione.
Rapimenti virtuali, una nuova minaccia informatica
Tra le tecnologie più utilizzate dai criminali informatici c’è il deepfake una tecnica utilizzata per manipolare foto e video innocui e trasformarli in potenziale materia compromettente specialmente in tema di sextortion.
Secondo la Federal Trade Commission solo nel 2022 le attività legate a questo tipo di illecito hanno generato un “profitto” di circa 2,6 miliardi di dollari.
Una delle truffe più comune prevede l'utilizzo di file audio generati dall’intelligenza artificiale che possono replicare la voce delle persone e far dire loro qualsiasi cosa. Naturalmente per ottenere il materiale di partenza per l’audio fake, i criminali informatici esplorano in lungo e in largo i social alla spasmodica ricerca di video dove appaiono le persone finite nel mirino e dove soprattutto si può ascoltare chiaramente la loro voce.
Utilizzando sofisticati strumenti di intelligenza artificiale è possibile elaborare una nuova biometria vocale, dando vita a un file vocale fasullo che he riproduce esattamente la voce di una persona.
Partendo da questo è possibile far dire alle persone qualsiasi cosa e sfruttare questi “audio compromettenti” per estorsioni o frodi ma non solo, spesso infatti le vittime subiscono più un danno d’immagine che un danno economico vero e proprio.
Come funziona un rapimento virtuale
A finire nel mirino dei malintenzionati digitali sono soprattutto i più giovani e i personaggi pubblici, che riempiono o propri social di video e audio con la loro voce che rappresentano un terreno fertile per gli hacker e per i software di deepfake.
Tra gli schemi tipici di un rapimento virtuale troviamo, anzitutto, l’identificazione di una potenziale vittima che può essere un soggetto “fragile” o il parente di una persona “rapita” che può permettersi di pagare un riscatto.
Poi bisogna identificare qualcuno da rapire, come un minore o qualcuno che sta a cuore a chi dovrà pagare la somma per il rilascio.
A questo punto di può creare una storia finta ad hoc che serve per confondere le persone e manipolarle emotivamente.
Fatto questo si può passare con la raccolta del materiale per la creazione del deepfake e con la “logistica” dell’evento, cioè quando mettere in scena la truffa e come far quadrare la storia inventata con la vita reale del rapito.
Si può poi passare alla chiamata vera e propria dove si parla del rapimento della persona, dove si richiede il riscatto e dove si dettano le condizioni della trattativa.
La cosa incredibile di questo schema studiato minuziosamente è che buona parte del lavoro può essere eseguito utilizzando un sistema relativamente semplice, come ChatGPT.
Utilizzando i servizi del chatbot di OpenAI, infatti, i criminali informatici potrebbero potenzialmente raccogliere grandi informazioni sulle loro vittime e, addirittura, identificare i soggetti più fragili a cui puntare.
Naturalmente non c’è un sistema per sfuggire a questo tipo di truffe se non quello di non fidarsi delle chiamate da mittenti sconosciuti e di accertarsi innanzitutto che la persona “rapita” stia bene. Fatto questo è sempre opportuno rivolgersi alle forze dell’ordine e seguire sempre i consigli degli esperti di sicurezza informatica.
Per saperne di più: Intelligenza Artificiale, cos'è e cosa può fare per noi
Per saperne di più: Sicurezza informatica, guida alla navigazione sicura sul web