Le potenzialità dell'intelligenza artificiale e degli algoritmi di apprendimento automatico profondo vanno ben oltre le sempre più diffuse applicazioni nella domotica e nell'elettronica di consumo. Oggi queste tecnologie possono essere utilizzate anche per creare e diffondere fake news e, persino, fake video. Ossia, dei video creati ad arte affinché chi li guardi abbia l'impressione che un personaggio più o meno famoso stia dicendo qualcosa che, in realtà, non ha mai detto e probabilmente neanche penserebbe mai di dire.
Si chiamano deep fake e sono un fenomeno molto pericoloso perché riconoscere questi video falsi non è affatto facile. Inizialmente si sono diffusi su Reddit ed erano, nella stragrande maggioranza dei casi, dei video porno: l'ideatore degli algoritmi era in grado di sovrapporre volti e visi di personaggi celebri a quelli di attrici e attori a luci rosse, diffondendo così in Rete dei falsi video hot. Ma, come vedremo tra poco, si tratta solo dell'inizio.
Cosa sono i deep fake, i video contraffatti che possono rovinarti la reputazione
Un esempio molto efficace di questa nuova tecnologia al servizio delle bufale e delle manipolazioni l'ha fornita, per metterci in guardia, Jordan Peele, attore, regista e sceneggiatore americano che ha vinto l'Oscar per il film Scappa-Get Out. Peele ha realizzato un video fake in cui ha fatto dire all'ex presidente degli Stati Uniti Barack Obama che stiamo entrando nell'era in cui i nostri nemici possono far sembrare che "chiunque abbia detto qualunque cosa in un qualunque momento". Poi Obama pronuncia delle parole offensive nei confronti dell'attuale presidente americano, il suo successore Donald Trump. Un video che, ovviamente, Barack Obama non ha mai girato, come non ha mai pronunciato quelle parole.
Il video non è perfetto: osservandolo con attenzione si notano dei saltellamenti nell'immagine e la sincronizzazione tra il parlato e le labbra di Obama non è sempre precisissima. Tuttavia, a guardarlo in fretta e magari da uno schermo piccolo come quello di uno smartphone è molto difficile accorgersi della manomissione. La tecnologia, inoltre, migliora di giorno in giorno e non manca molto al momento in cui, come afferma il falso Obama, i nostri nemici potranno realmente farci dire qualunque cosa per danneggiare la nostra immagine, senza che chi guarda il video abbia molte possibilità di accorgersi che si tratta di un fake. Oggi per creare un video fake credibile servono decine di ore di calcolo, ma non ci vorrà molto affinché si possa ottenere un ottimo risultato con uno smartphone di fascia alta in pochi minuti o addirittura secondi.
Software per creare video deep fake
Il software usato da Peele per creare il falso video di Obama si chiama FakeApp, è gratuito ed è stato usato anche per inserire il volto di celebrità come Jessica Alba o Daisy Ridley in scene di film pornografici o la faccia dell'attore Nic Cage in scene di film che non ha mai girato, come Indiana Jones. La startup Lyrebird AI ha mostrato un altro video con un falso Barack Obama, molto difficile da riconoscere come un fake. Un altro software che crea video con una tecnologia simile è Face2Face, sviluppato da un team di programmatori tedeschi. La nota software house Adobe, invece, lavora allo sviluppo di una sorta di Photoshop per l'audio.
Per creare un deepfake, oltre a utilizzare software ad hoc, sono necessari altri due strumenti: un video che sia perfetto per essere modificato e due dataset: uno per i movimenti della bocca e della testa e l'altro per la sincronizzazione dell'audio. Se si hanno a disposizione questi due elementi e un buon software di intelligenza artificiale, realizzare un deepfake può essere molto semplice. Il video da modificare deve, però, avere una caratteristica: deve essere perfetto, senza nessuna sbavatura. Meglio ancora se si tratta di un filmato di un qualche comizio politico.
Insomma, le tecnologie per manipolare il volto e la voce di chiunque sono già molte e molto efficaci e si rischia seriamente quella che è stata già definita una "Infocalypse", l'Apocalisse dell'informazione in cui ognuno di noi può diventare oggetto delle fake news e, di conseguenza, vittima di un ricatto.
Come riconoscere i video manipolati (e difendersi)
Per fortuna la stessa tecnologia si può usare anche per gli scopi opposti: riconoscere i video fake. Quel che l'occhio non vede e le orecchie non sentono in questi video sono i dati che vi stanno dietro, dentro al file manipolato, ed esistono già software che sono in grado di cercare dentro i bit dei file video le tracce di una eventuale manomissione. Un esempio è XceptionNet, programma sviluppato da un team di ricercatori della Technische Universität München (l'Università Tecnica di Monaco) proprio per cercare nei file video le tracce di una manipolazione.
Per testare l'efficacia di questo software nel rilevare i fake, e per confrontarla con la capacità degli umani di riconoscere le video bufale, i ricercatori tedeschi hanno creato oltre 1.000 video falsi con facce e voci non originali. Questo grande database di video fake è stato usato per "insegnare" all'algoritmo come è fatto un video falso e in cosa differisce da uno non manipolato. Poi hanno chiesto al software e a un campione di esseri umani di analizzare altri video e di riconoscere quelli falsi. Gli umani hanno hanno riconosciuto il 50% dei video falsi, XceptionNet ne ha azzeccati tra l'87 e il 98% mostrandosi molto più efficiente degli umani quando i video erano molto compressi. I video falsi con una elevata compressione sono i più pericolosi perché mostrano più artefatti audio e video di quelli meno compressi, rendendo più difficile all'occhio e alle orecchie umani riconoscere un eventuale manipolazione. Ma XceptionNet guarda i dati, non un salto nel labiale.
Altri team di ingegneri e programmatori stanno lavorando a programmi simili ad XceptionNet e i software per riconoscere i video fake diventeranno sempre di più. Tuttavia, si tratta dell'ennesimo inseguimento tra guardie e ladri, sempre più simile a quello tra virus e antivirus. Ma oggi, con le tecnologie moderne, le guardie devono correre sempre di più per contrastare gli ultimi algoritmi in grado di rovinarci la reputazione e di esporci a ricatti ed estorsioni.
I pericoli dei video deepfake
Oltre ai software in grado di riconoscere i video falsi, è necessario che le autorità competenti facciano qualcosa per prevenire questo tipo di filmati. Ci sono stati casi negli Stati Uniti e in altre parti del mondo in cui le vittime dei deepfake per la vergogna hanno tentato gesti estremi. Ed è proprio questo il pericolo maggiore delle fake news e dei video falsi. Andare a colpire la reputazione di una persona, la espone al giudizio dei social network e del mondo della Rete. E non tutti sono in grado di gestire la situazione al meglio.
28 agosto 2019