I moderni algoritmi di intelligenza artificiali pongono, già oggi, enormi sfide e alzano grandissimi dubbi etici. Non parliamo solo dei grandi temi dell'AI, ad esempio di quanto sarebbe rischioso se un computer diventasse realmente "intelligente" come un uomo, ma anche di temi più pratici ed attuali, come il riconoscimento facciale. Questa tecnologia, da alcuni anni ormai, ha fatto passi da gigante ed è già molto efficiente: i computer, eseguendo algoritmi che sono stati "allenati" dandogli in pasto giganteschi database di immagini di volti (come l'ormai famoso MegaFace), riescono a riconoscere le persone in modo molto accurato.
Tra i giganti del settore, e c'era da aspettarselo, c'è anche Google. Quello che non tutti si aspettavano era il CEO di Alphabet, l'azienda che controlla Google, Sundar Pichai che rilascia una intervista al Financial Times affermando che "Ci sono preoccupazioni reali circa le potenziali conseguenze negative dell'IA, dai deepfakes agli usi nefasti del riconoscimento facciale. Sebbene sia stato già fatto del lavoro per affrontare queste preoccupazioni, ci saranno inevitabilmente nuove sfide da affrontare che nessuna azienda o industria può risolvere da sola". Google, in altre parole, dice che i Governi dovrebbero regolamentare lo sviluppo degli algoritmi di AI.
Droni e riconoscimento facciale
Non è la prima volta che Google si trova costretta a farsi qualche domanda sull'eticità del riconoscimento facciale e di altri algoritmi di intelligenza artificiale. Fino al 2018, ad esempio, l'azienda collaborava con il Pentagono e sviluppava diversi algoritmi per i militari americani all'interno del cosiddetto "Project Maven". Il progetto riguardava principalmente l'uso del riconoscimento facciale sulle immagini catturate dai droni, molto spesso in Medio Oriente. Riconoscimento che, altrettanto spesso, precede un omicidio mirato di un presunto terrorista. Il progetto, però, non era ben visto neanche all'interno dell'azienda e portò ad una dozzina di licenziamenti spontanei e ad una petizione interna firmata da oltre 4.000 dipendenti. Alla fine, si decise di non rinnovare il contratto con il Pentagono, che valeva circa 9 milioni di dollari ma che in prospettiva poteva essere espanso fino ad un valore di 250 milioni.
LA GDPR dell'AI
La proposta di Google è quella di creare un "framework legale", che consideri la sicurezza, l'equità e la responsabilità al fine di garantire lo sviluppo degli strumenti giusti nel modo giusto, "Una regolamentazione ragionevole deve anche adottare un approccio proporzionato, bilanciando i potenziali danni, soprattutto nelle aree ad alto rischio, con opportunità sociali". Un modello al quale ispirarsi potrebbe essere quello della GDPR, la General Data Protection Regulation, cioè l'ultima direttiva europea che tutela la privacy in tutti i settori.
Un modello universale, che fa da cappello alla gestione dei dati personali in ogni area eliminando la necessità di scrivere leggi specifiche in ogni settore in cui vengono raccolti e gestiti dei dati personali. A fine 2019 anche Microsoft aveva lanciato un appello, per bocca del suo Presidente Brad Smith (che è anche un avvocato), affinché i Governi dei Paesi più industrializzati del mondo iniziassero, nel più breve tempo possibile, a discutere su una normativa comune sull'uso dell'AI.
Il ban dell'UE
A metà gennaio 2020 la testata giornalistica Euractiv ha riportato la notizia che la Commissione Europea starebbe studiando misure specifiche per imporre un ban temporaneo, di cinque anni, all'uso delle tecnologie di riconoscimento facciale. Un tale regolamento potrebbe bloccare sul nascere, ad esempio, il progetto del Governo tedesco di usare il riconoscimento facciale in 134 stazioni ferroviarie e in 14 aeroporti. Il ban sarebbe valido sia per i soggetti privati che per quelli pubblici, e potrebbe essere superato solo in situazioni in cui ci sono gravi e reali rischi per l'incolumità pubblica. Si tratterebbe di un blocco praticamente universale del riconoscimento facciale per alcuni anni, un tempo necessario a mettere in piedi un quadro normativo specifico e dettagliato.
Paura della Cina?
Mentre Google e Microsoft chiedono ai Governi di regolamentare l'intelligenza artificiale, e mentre in UE si discute sulla possibilità di bloccare per legge il riconoscimento facciale, miliardi e miliardi di bit viaggiano da ogni parte del mondo in direzione di server che si trovano sul suolo cinese. Sono i dati, anche biometrici, che TikTok e altre app made in China stanno raccogliendo da oltre 1,5 miliardi di utenti in 180 Paesi. Ed è sempre in Cina che la sperimentazione (anche sociale) del riconoscimento facciale è più avanzata, forte anche di un pieno sostegno del Governo che può accedere liberamente ai dati raccolti dalle software house cinesi.
È inutile negarlo: la Cina è più avanti di USA e UE in molti settori strategici della ricerca sull'intelligenza artificiale e del machine learning e non si fa molti scrupoli ad usare gli algoritmi per scopi non certo umanitari. Se oggi ci fosse un improvviso boom del riconoscimento facciale (ma anche di molte altre tecnologie basate sull'AI) in Europa e Stati Uniti, certamente buona parte del software e dell'hardware installato nel Nuovo e nel Vecchio Continente sarebbe Made in China. Forse le preoccupazioni di Google, Microsoft e della Commissione Europea non hanno solo a che fare con l'etica.
7 febbraio 2020