"Rischio di estinzione", così oltre 350 esperti, professori ed esponenti del settore tecnologico definiscono l'impatto dell'intelligenza artificiale sull'umanità. I politici di tutto il mondo sono esortati dall'allarme a classificare il rischio associato a questa tecnologia al pari di altri sul piano sociale come pandemie e guerre nucleari.
In una lettera aperta pubblicata dal Center for AI Safety (Cais), Sam Altman, fondatore di OpenAI, insieme ai “padrini dell’AI” Geoffrey Hinton e Yoshua Bengio, e altri firmatari, sottolineano la “priorità globale” di mitigare questo rischio.
Il CEO di DeepMind Demis Hassabis, il professore del MIT Max Tegmark, il co-fondatore di Skype Jaan Tallinn e la musicista Grimes si sono uniti per lanciare un messaggio conciso e mirato sui pericoli più gravi dell'AI. Il loro obiettivo è evitare che la discussione venga soffocata da altre questioni urgenti in materia, distogliendo l'attenzione necessaria su un problema potenzialmente catastrofico.
Riflessioni sull'utilizzo responsabile dell'AI
L’intelligenza artificiale generativa ha generato grande scalpore grazie prima di tutto a ChatGPT, rilasciato al pubblico da OpenAI lo scorso novembre e diventato virale in brevissimo tempo. In appena due mesi, ha raggiunto i 100 milioni di utenti.
Questo chatbot ha colpito tanto i ricercatori quanto il pubblico per la sua sorprendente capacità di rispondere in linguaggio naturale alle domande degli utenti, tanto che si è iniziata a sondare l’eventualità che possa sostituire l’essere umano sul posto di lavoro. In particolare, i colletti bianchi nel settore della conoscenza e dei servizi che si ritroveranno sempre più alle prese con GPT.
Se da un lato dunque, l’avvento di ChatGPT e di tutti i bot che hanno seguito le sue orme, hanno contribuito a “popolarizzare” l'AI generativa, il crescente interesse ha portato a galla una serie di preoccupazioni riguardo alle implicazioni di questi strumenti.
Già a marzo, Altman aveva confessato di essere spaventato dall'intelligenza artificiale, poiché la sua stessa creatura potrebbe essere sfruttata per diffondere campagne di disinformazione, realizzare software nocivi e persino rubare il lavoro a milioni di persone.
E poco tempo fa i leader di OpenAI hanno espresso sul blog dell’azienda la richiesta di istituire un organismo di regolamentazione internazionale simile a quella per l'energia nucleare per supervisionare lo sviluppo della "superintelligenza" e garantire un'integrazione sicura dell'AI nella società.
Tra scenari apocalittici e reali minacce
Anche altri leader tecnologici di rilievo come Elon Musk di Tesla e Sundar Pichai di Google hanno sottolineato i pericoli che l'AI comporta per la società, paragonabili o addirittura “più temibili delle armi nucleari”, ha detto il proprietario di Twitter.
Che peraltro ha redatto una lettera aperta, sottoscritta da diversi esperti di settore, chiedendo una pausa di sei mesi nello sviluppo di modelli più potenti del GPT-4 di OpenAI con lo scopo di rallentare la corsa all’AI e dare tempo alle istituzioni di elaborare protocolli di sicurezza condivisi per un utilizzo responsabile dell'intelligenza artificiale
Tuttavia, le conseguenze della creazione di "menti digitali ormai fuori dal nostro controllo”, non preoccupano tutti gli esperti del settore. Alcune fonti specializzate, tra cui TechCrunch, dubitano che gli imprenditori dell'AI stiano evocando scenari apocalittici solo per attirare l'attenzione.
In realtà, avvertono che la focalizzazione sul futuro oscura i problemi attuali, come l'uso improprio di dati protetti da copyright per addestrare l'AI senza autorizzazione o pagamento, la violazione della privacy dei consumatori attraverso la raccolta illecita di dati personali e la mancanza di trasparenza sulle informazioni utilizzate dai giganti dell'AI nel training dei loro modelli.
Per saperne di più: Intelligenza Artificiale, cos'è e cosa può fare per noi