Una delle sfide del presente, scaturita dalla diffusione di strumenti basati sull’AI generativa, consiste nell’essere in grado di riconoscere immediatamente un video generato con l’intelligenza artificiale senza confonderlo con filmati che mostrano persone o eventi reali. Le difficoltà ad individuare elementi del contenuto che possano fornire informazioni su come il contenuto è stato realizzato sono sempre maggiori, grazie alla presenza di tool sempre più precisi e performanti.
I video che vengono realizzati con l’intelligenza artificiale, sulla base di una sola immagine di partenza o di un prompt testuale, sono già molto realistici e, in futuro, potrebbero esserlo ancora di più. I rischi che ciò comporta sono molti ed è per questo che i governi e le autorità competenti, tra cui l’Unione Europea, stanno cercando di disciplinare velocemente l’utilizzo e l’applicazione dell’intelligenza artificiale in tutti i contesti.
Gli utenti, dal canto loro, possono imparare a riconoscere i video generati con l’AI, comprendendo quali sono i limiti delle tecnologie attualmente presenti e facendo attenzione ad alcuni piccoli dettagli ed elementi che possono fornire indicazioni importanti. Scopriamo quali sono i campanelli di allarme che possono smascherare un video deepfake.
-
1. Video generati con l’AI, perché è importante riconoscerli
Shutterstock
I video generati con l’intelligenza artificiale possono essere dei contenuti di elevata qualità, originali, divertenti e accattivanti. Grazie alla precisione degli strumenti AI, che stanno diventando sempre più performanti, riconoscere un deepfake, un video generato utilizzando un software AI, è difficile. Farlo è, tuttavia, importante per evitare rischi come la disinformazione, per non cadere vittima di malintenzionati e per poter fruire di tutti i contenuti in maniera totalmente sicura.
I deepfake possono trarre in inganno e generare disinformazione e diffusione di fake news. Questo è il pericolo più evidente, ma non l’unico. Quando i video generati con l’AI mostrano volti e personaggi noti, possono danneggiarne la reputazione e persino influenzare l’opinione pubblica, determinando il corso degli eventi. Ciò può avere serie conseguenze sulla carriera di ogni persona e sul loro ruolo all’interno della società.
Video generati con l’AI in maniera non etica possono causare danni alle aziende, alla loro credibilità e reputazione. Cresce il pericolo di frode, sia verso i consumatori che verso le organizzazioni.
-
2. Riconoscere un video generato con l’AI facendo attenzione ai dettagli
Shutterstock
A svelare la natura di un video sono i dettagli. Per quanto i software AI siano in grado di generare contenuti di alta qualità, non hanno ancora raggiunto la completa perfezione.
I movimenti dei soggetti presenti nei deepfake potrebbero apparire a tratti poco naturali. Ad esempio, potrebbero non sbattere le ciglia, non seguire con lo sguardo l’interlocutore o avere dei movimenti degli occhi e delle labbra non convincenti. Lo stesso vale per le espressioni facciali.
Sul viso potrebbero apparire strane ombre, forme anomale e dettagli della pelle poco realistici. Capelli e denti sono ancora difficili da riprodurre e in un video creato con l’intelligenza artificiale potrebbero apparire poco definiti, senza volume, statici.
I software AI hanno ancora delle difficoltà a generare correttamente gli elementi più piccoli, dalle linee sottili. Gli errori più comuni avvengono su mani, oggetti di dimensioni ridotte, occhiali, accessori per capelli e altri oggetti che si trovano sullo sfondo dell’immagine. Più il contenuto è complesso e ricco di dettagli, più è facile individuare dei segnali sulla sua natura.
È bene fare attenzione anche alla corrispondenza tra l’audio e il movimento delle labbra delle persone presenti nel filmato. La mancanza di coerenza potrebbe rappresentare un importante segnale.
Cambi d’abito improvvisi, sparizione o apparizioni di gioielli e oggetti durante la riproduzione, piccoli elementi dei vestiti che si modificano sono dei campanelli d’allarme da non sottovalutare. In caso di dubbio, è utile visualizzare il contenuto più volte.
-
3. Fare attenzioni alle luci, alla coerenza del contenuto e all’attendibilità della fonte
Shutterstock
L’illuminazione, nei contenuti generati con l’intelligenza artificiale, appare a volte poco naturale, piatta. Può essere utile osservare le ombre, la presenza di aloni intorno ai soggetti e agli oggetti o come la luce li colpisce per capire che un filmato non è reale.
I dettagli e gli elementi visivi di un video non sono gli unici indicatori, ma anche il messaggio che vogliono trasmettere deve essere analizzato. Se un video sembra privo di senso, è poco coerente con la realtà o eccessivamente sensazionale, è bene approfondire la sua origine.
Nel corso del tempo i software per la generazione di video AI supereranno tutti i limiti ora conosciuti. L’unico modo per essere veramente certi della veridicità di un video è accertarsi dell’attendibilità della fonte, cercando informazioni su chi ha realizzato il contenuto, dove è stato pubblicato, dove è stato registrato e quando. Per evitare di cadere in errore ed essere vittima di disinformazione e dei malintenzionati è opportuno allenare il proprio spirito critico e la propria capacità di analisi.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi