Di sicuro conoscerai Elon Musk come fondatore di Tesla, famosissima casa costruttrice di auto elettriche con un sofisticato sistema di guida autonoma, il cosiddetto Autopilot. Forse sai anche che Musk ha fondato anche SpaceX, una azienda che produce razzi e veicoli spaziali e che mira a realizzare il primo volo commerciale con equipaggio su Marte entro il 2024. Forse non sai ancora, però, che Musk ha fondato anche la compagnia OpenAI che si occupa di sviluppare tecnologie di intelligenza artificiale. E ci riesce molto bene, a quanto pare, e forse persino troppo. Almeno così sembrerebbe visto che la stessa Open AI ha deciso di smettere di fornire informazioni su uno dei suoi progetti principali, perché lo ritiene così efficiente da poter diventare pericoloso.
Cosa è OpenAI
Open AI nasce con l'intento di utilizzare l'intelligenza artificiale per analizzare e comprendere il testo scritto dagli umani. Tramite complessi algoritmi di machine learning è possibile dare in pasto milioni di pagine di testo a OpenAI, che le elabora, le comprende e le può persino rielaborare. In pratica, è possibile istruire Open AI su un determinato argomento facendogli leggere un bel po' di materiale e poi chiedergli di rispondere a delle domande o di realizzare un testo originale su quell'argomento. Ricordi quando a scuola la maestra ti chiedeva di leggere dei testi e poi di fare un riassunto? Più o meno è la stessa cosa, ma il riassunto lo fa una macchina. "Sembra dannatamente reale", così ha commentato i primi risultati David Luan, vice presidente della divisione degli ingegneri informatici di OpenAI. Talmente simile a un testo reale da diventare pericoloso, ha concluso poco dopo il management dell'azienda.
I pericoli di OpenAI
Per quale motivo un software come OpenAI dovrebbe essere così pericoloso? Perché potrebbe diventare una gigantesca ed efficientissima macchina per produrre in serie e a costi bassissimi fake news. E non è un timore campato in aria: diversi esperimenti hanno dimostrato che OpenAI è perfettamente in grado di scrivere notizie false con uno stile che sembra in tutto e per tutto quello di uno scrittore umano. Quando è stato chiesto ad OpenAI di scrivere un testo sui rapporti tra Hillary Clinton e George Soros, cioè tra la candidata alla presidenza degli Stati Uniti (sconfitta alle elezioni da Donald Trump) e il noto finanziere, quel che ne è uscito fuori faceva paura. OpenAI, infatti, ha scritto un perfetto testo complottista, con uno stile quasi giornalistico. Di testi del genere, con OpenAI o tecnologie simili, se ne possono scrivere letteralmente a milioni. È evidente che ciò potrebbe diventare un pericolo per la democrazia e la libertà: potremmo trovarci, da un giorno all'altro, invasi da notizie false che sembrano scritte da un umano ma che, al contrario, sono scritte da un computer a costo zero e alla velocità della luce. Già oggi quella delle fake news e dei troll è una vera e propria industria, spesso usata per diffondere notizie diffamatorie. La ben nota storia dei profili Twitter falsi, gestiti da bot, utilizzati in varie campagne elettorali ha fatto il giro del mondo. Ma con OpenAI le fake news potrebbero realmente fare un enorme passo in avanti. E non è neanche la notizia peggiore.
OpenAI+Deep Fake
Ora pensa a cosa potrebbe succedere se qualcuno utilizzasse OpenAI insieme a FakeApp o a qualsiasi applicazione per realizzare "deep fake". Cioè quei video in cui una persona famosa sembra pronunciare delle parole che, in realtà, non ha mai detto. Un creatore di fake news potrebbe far realizzare un testo falso a OpenAI e poi farlo pronunciare a chiunque tramite FakeApp. Il risultato sarebbe devastante: la reputazione di chiunque sarebbe in pericolo, la qualità dell'informazione crollerebbe sotto i colpi di milioni di contenuti falsi assai difficili da identificare.
Il rilascio dell'intelligenza artificiale GPT-2
Inizialmente OpenAI aveva affermato di non voler rilasciare l'intelligenza artificiale che "sa scrivere" né i documenti e materiale tecnico riguardante l'AI, così da evitare che qualcuno potesse sfruttarli per scopi poco nobili. A qualche mese di distanza, però, l'azienda creata da Elon Musk, è tornata sui suoi passi e non solo ha creato un sito per testare le potenzialità di GPT-2, ma anche diffuso la documentazione tecnica che consente di studiare e anlizzare gli algoritmi che fanno funzionare il "cervellone elettronico" di OpenAI. Lo scopo, si legge sul sito, è quello di avere un maggior numero di revisioni del codice e trovare così bug o falle sfuggite agli occhi dei programmatori. I pericoli per un uso poco corretto di GPT-2, però, restano tutti.
OpenAI non si ferma
C'è da dire, poi, che l'attività di OpenAI non si limita alla sola "scrittura". La società ha sviluppato Neural MMO, una sorta di campo virtuale di allenamento per reti neurali che assomiglia molto agli scenari dei videogiochi MMO (Massively Multiplayer Online) come Starcraft II, Montezuma's Revenge, Dota 2, Quake III. Neural MMO testa l'intelligenza degli algoritmi di AI facendogli attraversare le mappe dei videogames, all'interno delle quali gli algoritmi devono scegliere come muoversi individuando e attraversando foreste e i sentieri, mentre devono riconoscere ed evitare montagne e specchi d'acqua. Lo scopo di tutto ciò è raffinare gli algoritmi di AI da utilizzare soprattutto nella ricerca scientifica.