login LOGIN
CHIUDI chiudi
Il mio profilo

mostra
Hai dimenticato la password?
Inserisci l'indirizzo email di registrazione per reimpostare la password.
Segui le istruzioni che ti abbiamo inviato per posta elettronica.

Le nuove truffe dell’AI generativa riguardano il testo, le immagini e i video

Ascolta l'articolo

Per imparare a difendersi dalle nuove truffe AI bisogna innanzitutto alzare il livello di attenzione con cui si leggono o guardano i contenuti del web

truffe con l'intelligenza artificiale Shutterstock

Le truffe AI sono sempre più ingannevoli: dalle recensionifalse alle fake news, passando per le immagini o le voci artificiali e arrivando ai deepfake più completi e pericolosi. 

Il “problema” è che l’intelligenza artificiale generativa, anche nota come AI (o IA, per rimanere su un acronimo italiano), continua a crescere e migliorarsi giorno dopo giorno.

Di conseguenza i malintenzionati del web hanno strumenti sempre più potenti con cui provare a catturare l’attenzione delle loro vittime e portarle inconsapevolmente a compromettere i loro dispositivi o a diffondere le loro informazioni più preziose

Per fortuna esistono alcune strategie che permettono di difendersi e di elevare il livello della propria sicurezza informatica. E un primo passo consiste sicuramente nel conoscere più dettagliatamente le diverse truffe legate al mondo dell’AI. 

  • 1. Come funzionano le truffe AI legate ai testi
    Fact checking

    Shutterstock

    La scrittura di testi è stata con ogni probabilità la prima, grande conquista dell’intelligenza artificiale generativa così come viene intesa in questo periodo storico.

    Oggi tool AI come ChatGPT di OpenAI, Copilot di Microsoft o Gemini di Google riescono a generare testi complessi in una manciata di secondi: può trattarsi di riassunti di documenti specifici, ma anche contenuti originali. 

    Possono essere notizie o articoli realizzati a partire da fonti o input forniti dall’utente, ma anche contenuti originali all’insegna della creatività, come ad esempio poesie o canzoni. 

    Il problema di fondo della scrittura realizzata dall’intelligenza artificiale è che può sfociare in tante diverse truffe più o meno gravi: a partire dalle recensioni false e le fake news, fino ad arrivare a inganni personalizzati ancora più pericolosi. 

    Al giorno d’oggi chiunque può chiedere a una AI di scrivere decine, se non addirittura centinaia di contenuti pronti a diffondersi a macchia d’olio sul web. E questi contenuti, se creati con intenti poco limpidi, possono finire per influenzare un numero incredibilmente vasto di utenti. 

    È il caso delle fake news, delle promozioni o le pubblicità mascherate da notizie, ma anche delle recensioni false o faziose: contenuti screditanti realizzati ad arte con un chatbot per minare la credibilità di un prodotto o un servizio. 

    Restando in tema chatbot, non bisogna dimenticare tutti quei luoghi del web in cui, al giorno d’oggi, una AI potrebbe benissimo spacciarsi per un essere umano. Si pensi in tal senso alle app per incontri o, più in generale, a un qualsiasi servizio che preveda messaggistica o interazioni tra persone che non si conoscono

    In queste circostanze l’uso di tool AI permette di simulare la presenza di un essere umano e veicolare informazioni specifiche senza fatica: a partire dalle attività di spam, fino ad arrivare a truffe ben più pericolose come ad esempio quelle che rientrano sotto lo spettro del phishing

  • 2. Come funzionano le truffe AI legate alle immagini e la voce
    Deepfake

    Shutterstock

    Anche le fotografie e le grafiche stanno pian piano entrando nelle disponibilità dell’intelligenza artificiale generativa. In questo momento storico i tool AI stanno ancora affinando le loro funzionalità, ma molti player del settore riescono a generare immagini inedite credibili a partire da una descrizione testuale dell’utente. 

    Se messi in mano a malintenzionati, questi strumenti permettono di generare contenuti ai limiti del deepfake. Basti pensare alla possibilità di utilizzare una personalità nota come testimonial di una qualsiasi campagna per cui non ha prestato alcun consenso

    Questo scenario metterebbe l’utente di fronte a un output potenzialmente credibile: un suo beniamino che presenta e promuove un prodotto o un servizio a scelta. E non avrebbe motivo per pensare di essere di fronte a una comunicazione ingannevole o a una vera e propria truffa

    Lo stesso discorso vale per le truffe AI che prevedono l’utilizzo di una voce artificiale: un elemento che dà ulteriore credibilità al contenuto e che spinge l’utente a dare per scontata la veridicità di ciò che ha di fronte. 

    In questo momento storico voci realizzate con l’AI spopolano sui principali social network: gli utenti più giovani e meno consapevoli sono portati a considerarle un gioco innocuo, ma in realtà anche in questo caso la distanza con il deepfake più pericoloso è davvero molto labile. 

    Cosa succederebbe infatti se le voci di personaggi noti venissero utilizzate non per parodie e meme, ma per diffondere messaggi falsi o tendenziosi al pubblico? Le persone sarebbero davvero in grado di difendersi e di distinguere la voce originale da una sua replica? 

  • 3. Come difendersi dalle truffe AI di oggi e di domani
    Truffe con l'intelligenza artificiale

    Shutterstock

    Il tema del deepfake è di strettissima attualità per tutti coloro che si interrogano sulle truffe legate al mondo dell’intelligenza artificiale. Il termine deepfake viene utilizzato per fare riferimento a contenuti verosimili che simulano le fattezze e i movimenti di persone reali.

    I contenuti deepfake più credibili si presentano sotto forma di video, ma possono venire realizzati anche a partire da immagini o file audio. Oggi le AI a disposizione di utenti senza competenze avanzate non sono ancora in grado di realizzare deepfake convincenti, ma è lecito pensare che il progresso tecnologico supererà anche questo ostacolo in tempi relativamente brevi. 

    E a questo punto le persone saranno chiamate ad alzare ulteriormente il livello di attenzione che prestano ai contenuti del web. Anche perché è difficile pensare che la maggioranza degli internauti inizierà a utilizzare i software che aiutano a comprendere se la paternità di un output è umana o artificiale. 

    Allo stesso tempo è comunque possibile difendersi dalle truffe AI presenti e future, mettendo in seria discussione tutto quello che si trova sul web: specialmente nel caso in cui la fonte non sia particolarmente accreditata o autorevole. 

    In altre parole, nel momento in cui ci si trova di fronte a un contenuto potenzialmente sospetto, è sempre consigliabile sottoporlo a qualche prova: ad esempio cercando verifiche o smentite sulla rete, o magari visitando i portali ufficiali del prodotto o del servizio che viene veicolato. 

    Il tutto facendo sempre grande attenzione a non cliccare mai su link, banner o CTA: spesso infatti le truffe che circolano su Internet indirizzano l’utente verso pagine compromesse, che permetteranno agli hacker di ottenere informazioni sensibili, se non addirittura di installare malware sui dispositivi delle loro vittime. 

    Per saperne di più:

A cura di Cultur-e
Addestramento IA non consentito: É assolutamente vietato l’utilizzo del contenuto di questa pubblicazione, in qualsiasi forma o modalità, per addestrare sistemi e piattaforme di intelligenza artificiale generativa. I contenuti sono coperti da copyright.
Whatsapp
Segui le ultime notizie sul nostro canale Whatsapp
Immagine principale del blocco
Segui le ultime notizie sul nostro canale Whatsapp
Fda gratis svg
Iscriviti al canale gratuito

Iscriviti
all'area personale

Per ricevere Newsletter, scaricare eBook, creare playlist vocali e accedere ai corsi della Fastweb Digital Academy a te dedicati.