Ogni giorno vengono utilizzati, da aziende e privati, strumenti basati sull’intelligenza artificiale, che si evolve velocemente offrendo agli utenti del web e alle aziende un gran numero di soluzioni. Proprio per questo motivo si è sentito sempre di più il bisogno di elaborare delle nuove regole, delle leggi da rispettare per poter prevenire eventuali problematiche derivanti dall’uso improprio di questa tecnologia. È così nato l’AI ACT, in vigore a partire dal 1° agosto 2024.
Approvato lo scorso aprile, l’AI ACT è una legge europea, una delle prime in assoluto nel mondo, che mira a fornire delle linee guida da seguire quando si tratta di intelligenza artificiale e che cerca di limitare i rischi per i cittadini, per i loro diritti fondamentali e per gli interessi pubblici.
L’AI Act è un modello virtuoso e al passo con i tempi, che potrebbe essere preso d’esempio dagli altri Paesi. Scopriamo quali sono le regole che impone.
Che cos’è l’AI Act e perché si è reso necessario
Shutterstock
Come ben noto, l’enorme diffusione dei servizi di intelligenza artificiale sta cambiando radicalmente tutti i settori del vivere quotidiano, dal lavoro, alla scuola e fino ad arrivare al controllo delle infrastrutture essenziali, come quelle di luce e gas.
In tal senso, l’idea del regolamento europeo sull’intelligenza artificiale, si insinua proprio in tutti quei contesti definiti “a rischio” e nei quali l’utilizzo di tali soluzioni potrebbe, potenzialmente, essere un’arma a doppio taglio.
L’AI Act si è reso necessario per via della rapida ed enorme diffusione dei servizi basati sull’intelligenza artificiale, in Europa e nel resto del mondo
Nel testo dell’AI ACT ci sono 113 articoli e 13 allegati che, come appena detto, ruotano intorno al concetto di “rischio” applicato all’adozione di tecnologie del genere, definendo quattro categorie di pericolo.
Naturalmente più sarà alto il livello di rischio e più l’AI ACT fissa limiti da non superare per tutti coloro che sviluppano e utilizzano sistemi di intelligenza artificiale. La legge non si applica a tutti i settori e sono escluse le tecnologie militari e (limitatamente) tutto ciò che rientra nel campo della ricerca scientifica.
Gli utilizzi dell’AI nei “sistemi ad alto rischio”
Shutterstock
Tra gli utilizzi dell’AI considerati ad alto rischio ci sono tutti quei casi che potrebbero rappresentare un pericolo per la salute, la sicurezza o i diritti fondamentali dei cittadini dell’Unione Europea.
Tra i settori sensibili troviamo: l’identificazione biometrica o quella delle emozioni; l’AI applicata all’educazione o alla formazione che potrebbe “caratterizzare” o discriminare le persone; gli utilizzi illeciti sul lavoro (distribuzione dei ruoli, scrematura dei CV); tutto ciò che riguarda la finanza e le frodi ad essa connesse; l’utilizzo dell’AI per le Forze dell’Ordine da utilizzare in caso di situazioni che potrebbero comportare rischi elevati per il singolo o per la collettività ma che dovrà essere regolamentata da un ulteriore sistema di leggi (in arrivo dopo l’approvazione dell’AI Act) e dovrà comprendere sempre la presenza di una persona a cui spetterà la decisione finale.
Tra gli utilizzi considerati ad alto rischio c’è anche lo sviluppo di tecnologie AI che dovrà garantire sistemi di controllo efficaci e una gestione trasparente delle informazioni raccolte, aggiornandole e registrandole su appositi database che dovranno essere consultabili per definire eventuali violazioni.
Gli sviluppatori dovranno anche considerare i pericoli connessi alla sicurezza informatica e, in caso di problemi, dotare la propria tecnologia di un “pulsante di spegnimento” che in qualsiasi momento consenta loro di bloccare il funzionamento di tali strumenti.
Oltretutto l’AI ACT sancisce anche l’obbligo di sottoporre a controlli più frequenti e più serrati tutti i prodotti AI in fase di sviluppo, con l’introduzione di un sistema di monitoraggio postumo, da utilizzare cioè anche dopo l’arrivo sul mercato del prodotto in questione.
Le regole dell’AI Act, a chi si applicano e quando diventeranno esecutive
Shutterstock
L’AI Act determina con assoluta precisione le quattro classi di rischio, così divise: nessun rischio, rischio minimo, rischio elevato e sistemi di intelligenza artificiale vietati. In base a questa classificazione, a partire dai prossimi mesi verranno vietate definitivamente alcune pratiche, come quelle che possono portare ad una manipolazione del processo decisionale dell’utente.
Per quanto riguarda i rischi elevati, vengono ora imposte delle regole molto severe. Questo porterà, ad esempio, a limitare tutte le intelligenze artificiali che raccolgono i dati biometrici degli utenti. Le regole saranno molto più leggere negli altri casi, permettendo così alle aziende di continuare a lavorare senza difficoltà e sfruttando le potenzialità dell’intelligenza artificiale.
L’AI Act stabilisce con precisione le quattro classi di rischio, fissando regole più o meno severe in base a queste
L’AI Act, dopo essere stato approvato a Marzo 2024, è ufficialmente entrato in vigore a partire dal 1° agosto 2024, ma è bene essere consapevoli che la maggior parte delle norme saranno applicabili solo a partire dall’agosto 2026. È un lasso di tempo necessario per permettere agli Stati Membri, a tutte le aziende che utilizzano l’AI e agli sviluppatori che lavorano a sistemi e servizi AI, di adeguarsi ai nuovi regolamenti.
Le tempistiche sono più restrittive laddove le regole impongono dei divieti. In questo caso, in base al livello di rischio, diventano esecutive dopo 6 o 12 mesi.
L’AI Act, come stabilito dal secondo articolo della legge, si applica ad un gran numero di soggetti. Tra questi vi sono i fornitori che immettono sul mercato sistemi e modelli AI e deployer dei sistemi AI stabiliti nell’UE o in un paese terzo se il sistema è usato nell’Unione Europea, importatori e distributori di sistemi AI, rappresentanti autorizzati e tutte le persone interessate che si trovano in UE.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi