Siamo davanti ad un momento storico. L'Europa sarà il primo continente ad adottare una normativa per regolamentare l'intelligenza artificiale. Infatti, il 14 giugno 2023 il Parlamento di Strasburgo ha votato a favore del mandato negoziale sull’AI Act con una schiacciante maggioranza di 499 voti a favore, solo 28 contrari e 93 astensioni.
Unione Europea definisce obblighi e divieti in base al rischio
La nuova normativa europea sull'intelligenza artificiale utilizza un approccio basato sul rischio per garantire che l'AI sia conforme ai diritti e ai valori dell'Unione Europea, inclusi la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale. Già avviati i negoziati con il Consiglio e gli Stati membri dell'UE per la stesura del testo definitivo.
Per i fornitori o comunque gli operatori che impiegano sistemi di AI, obblighi e divieti saranno definiti in base al livello di rischio che l'AI può potenzialmente generare. Se il rischio di sicurezza è troppo elevato e quindi “inaccettabile”, l'uso dell'AI sarà proibito.
Prima bozza di regolamento europeo per l'AI
La novità rispetto al testo noto è che i deputati europei hanno ampliato i divieti ai sistemi di identificazione biometrica in tempo reale o a posteriori in spazi accessibili al pubblico (a eccezione del perseguimento di gravi reati e solo previa autorizzazione giudiziaria) come ai sistemi di categorizzazione biometrica basati su caratteristiche sensibili (genere, razza, etnia, cittadinanza, religione o credo politico).
I membri del parlamento hanno detto no anche alla classificazione dei cittadini europei in base al comportamento sociale e alle caratteristiche personali, schierandosi in modo deciso contro il sistema disocial scoring.
Bannati i sistemi di polizia predittiva che integrano la profilazione di un soggetto, la sua ubicazione o la registrazione dei suoi comportamenti criminali passati e quelli di riconoscimento delle emozioni all’interno delle forze dell'ordine, o per gestire i controlli alle frontiere, tantomeno sul posto di lavoro e nelle scuole.
Non è consentito peraltro lo scraping di immagini facciali su internet o in telecamere di sorveglianza a circuito chiuso al di fuori dell'inchiesta specifica di un soggetto e senza l'autorizzazione della polizia o del tribunale.
L’importanza di trasparenza e sperimentazione
Per quanto riguarda i sistemi di intelligenza artificiale generativa, molto in voga in questo periodo, la trasparenza è stata eletta a “requisito fondamentale”. Quindi, modelli come ChatGPT e DALL-E ora devono palesare l'origine del contenuto generato. È essenziale prestare attenzione anche ai deep fake e a fornire strumenti per distinguerli dalle immagini reali, come dimostrato dai recenti casi oltreoceano.
Infine, la nuova legge promuove gli “spazi di sperimentazione normativa” che mirano a creare un ambiente di vita reale dove testare l'AI prima dell'implementazione e che si rivelano fondamentali per sostenere l'innovazione delle piccole e medie imprese nell’ambito dell’intelligenza artificiale.
Il regolamento prevede sanzioni per chi utilizza o diffonde applicazioni proibite, ma anche per chi non fornisce tutte le garanzie sui sistemi a rischio che sia “alto”, “limitato” o “minimo”. Le multe possono arrivare fino a 30 milioni di euro o il 6% del fatturato annuo dell'azienda.
Per saperne di più: Intelligenza Artificiale, cos'è e cosa può fare per noi