Negli ultimi mesi ha fatto sicuramente scalpore il blocco di ChatGPT in Italia: il tool di intelligenza artificiale che riesce a rispondere a richieste scritte di varia natura. A partire dalla ricerca incrociata sul web, fino ad arrivare alla realizzazione di articoli, tesine e simili.
Il Garante della privacy, nel mese di marzo, aveva evidenziato delle possibili problematiche in termini di violazione della privacy. L’azienda sviluppatrice OpenAI aveva però dimostrato di rispettare gli obblighi previsti dal GDPR, ottenendo un nuovo via libera in data 28 aprile 2023.
Ora però ChatGPT potrebbe nuovamente chiudere i battenti e non solo in Italia. Secondo quanto riportato da diversi organi di informazione, il tool potrebbe addirittura venire rimosso da tutto il mercato dell’Unione Europea. La decisione, sicuramente drastica, sarebbe una diretta conseguenza delle recenti regolamentazioni sull’utilizzo dell’intelligenza artificiale ad opera del Parlamento Europeo.
Ad oggi la normativa è ancora in fase di finalizzazione, ma lo stesso team di OpenAI ha già messo le mani avanti. Nello specifico il CEO Sam Altman ha dichiarato massimo impegno per rispettare tutte le nuove regole in arrivo. Ma ha anche dichiarato di essere pronto a cessare le operazioni, qualora fosse impossibile adeguarsi alla regolamentazione.
Cosa prevede la nuova regolamentazione sull’AI
Il Parlamento Europeo è al lavoro per finalizzare l’EU AI Act: una regolamentazione che si sofferma sulle più recenti possibilità di utilizzo delle AI. Diversi addetti ai lavori sostengono che a Bruxelles tool di intelligenza artificiale generativa come ChatGpt siano considerati letteralmente “ad alto rischio”.
Per questo si starebbe andando verso la richiesta agli sviluppatori di fornire tutta una serie di informazioni in merito alle AI in uso: dalla potenza di calcolo che alimenta le piattaforme alle modalità di apprendimento con cui vengono allenati i modelli.
Questo genere di informazioni è spesso e volentieri protetto dal segreto aziendale. Lo stesso discorso vale per i tempi di formazione dei singoli algoritmi: un altro dato che, pare, potrebbe rientrare tra quelli richiesti di default dall’Unione Europea.
Proprio il team di OpenAI ha recentemente confidato la difficoltà a rendere note le informazioni di cui sopra. Ragion per cui lo stesso Sam Altman sarebbe al lavoro con il Congresso degli Stati Uniti per individuare delle norme condivise.
Quali sono i pericoli di ChatGPT
Al di là delle nuove normative in arrivo, gli addetti ai lavori si interrogano ormai da mesi sul tema ChatGPT e sicurezza informatica. Il tool infatti può prestarsi a tutta una serie di utilizzi che preoccupa persino i vertici di OpenAI.
Ad esempio con ChatGPT è potenzialmente possibile creare un codice malevolo inserendo una semplice richiesta testuale. Allo stesso modo è possibile realizzare fake news o messaggi di spam su larga scala in maniera quasi automatizzata.
Allo stesso tempo è impossibile negare che proprio l’intelligenza artificiale in questo momento storico sia un grandissimo alleato per tutti coloro che lavorano nella cyber security.
Per saperne di più: ChatGPT, cos'è, come funziona, a cosa serve, come usarla gratis