L'intelligenza artificiale sta avanzando piuttosto velocemente e i rischi che possono scaturire sono talmente evidenti da spingere i leader di OpenAI a richiedere la creazione di un organismo di regolamentazione internazionale simile a quello che governa l’energia nucleare. Tuttavia, avvertono di farlo con cura e considerazione perché l’eccessiva fretta può portare a passi falsi.
Intanto, tramite un post sul blog dell’organizzazione, il fondatore di OpenAI Sam Altman, il presidente Greg Brockman e il direttore scientifico Ilya Sutskever spiegano che il ritmo dell'innovazione nell'intelligenza artificiale è così rapido che le autorità esistenti non riescono a tenerla a freno adeguatamente.
È chiaro che la tecnologia ha prodotto una risorsa inestimabile e una minaccia unica al contempo, come evidente nella popolarità dell'agente conversazionale ChatGPT di OpenAI. Nonostante il tono autocelebrativo, qualsiasi osservatore imparziale può riconoscere l'impatto di questi progressi tecnologici.
La necessità di un'agenzia globale per governare la “superintelligenza”
Il post riconosce che l'AI ha bisogno di direzione e coordinamento per garantire che lo sviluppo della “superintelligenza” avvenga rispettando la sicurezza e a favore di una integrazione efficiente nella società. Un'agenzia di regolamentazione globale, simile all'Agenzia internazionale per l'energia atomica (AIEA), è necessaria per supervisionare qualsiasi sviluppo di “superintelligenza” oltre una certa soglia di capacità.
Questa agenzia ispezionerebbe i sistemi, richiederebbe audit, applicherebbe gli standard di sicurezza e porrebbe limiti all'implementazione e alle misure di sicurezza. Un organo di governo dell’AI costruito su questo modello potrebbe stabilire e monitorare standard e accordi internazionali, un buon punto di partenza per affrontare i malintenzionati.
Secondo il post di OpenAI, misurare la potenza di calcolo e l'utilizzo di energia per la ricerca sull'AI è una delle poche metriche oggettive che dovrebbero essere segnalate e monitorate. Sebbene sia difficile determinare se l'intelligenza artificiale debba o meno essere utilizzata per determinati scopi, il monitoraggio e l'audit delle risorse ad essa dedicate, come altri settori, potrebbero essere utili. OpenAI suggerisce di esentare le aziende più piccole per incoraggiare l'innovazione.
OpenAI e il dibattito sulla supervisione dell'AI
Il principale ricercatore e critico dell'AI, Timnit Gebru, ha dichiarato in un'intervista con The Guardian qualcosa di simile: "A meno che non ci sia una pressione esterna ad agire diversamente, le aziende non si autoregoleranno. Abbiamo bisogno di regolamentazione e di qualcosa di meglio del solo profitto come motivazione".
OpenAI ha abbracciato pubblicamente l'obiettivo di una governance efficace, ma vi sono ancora molte incertezze. La proposta di azione concreta lanciata dall'azienda rappresenta comunque un punto di partenza nella discussione sull'argomento e dimostra il sostegno da parte di un marchio e provider di AI, tra i più grandi al mondo.
La supervisione pubblica è disperatamente necessaria, ma a quanto pare nemmeno OpenAI sa ancora come progettare un tale meccanismo anche se ha intenzione di iniziare a sperimentare lo sviluppo. Nonostante i leader dell'azienda sostengano la necessità di rallentare, non ci sono ancora piani concreti in proposito a causa del potenziale enorme che l'AI offre per migliorare le nostre società e aumentare i profitti. Inoltre, vi è il rischio che gli "attori malvagi" abbiano il piede ben piantato sull'acceleratore.
Per saperne di più: ChatGPT, cos'è, come funziona, a cosa serve, come usarla gratis