In un mondo sempre più dominato dall’intelligenza artificiale generativa, concept artist e illustratori affrontano una sfida crescente nel difendere il loro lavoro dagli usi impropri delle aziende che lo utilizzano senza consenso o compenso per addestrare i propri modelli AI text-to-image.
Tuttavia, un nuovo strumento chiamato "Nightshade" promette di restituire il potere che spetta agli artisti che potranno salvaguardare le loro opere digitali sabotando astutamente i generatori di immagini AI, come DALL-E, Midjourney e Stable Diffusion.
Nightshade avvelena i dati di addestramento dei generatori di immagini
Il MIT Technology Review ha ottenuto un’anteprima esclusiva della ricerca del team guidato dal professore dell'Università di Chicago Ben Zhao, sottoposta a revisione paritaria alla conferenza sulla sicurezza informatica Usenix. La speranza è che Nightshade possa fungere da potente deterrente contro la mancanza di rispetto dei diritti d'autore e intellettuali degli artisti.
Questo strumento opera introducendo minime alterazioni ai pixel di un'opera d'arte digitale, "avvelenando" di fatto l'immagine poiché inutilizzabile per le sessioni di formazione dell'intelligenza artificiale. Sebbene questi cambiamenti rimangano impercettibili all’occhio umano, portano gli algoritmi AI ad identificare in modo completamente errato l’immagine.
Ad esempio, consideriamo un’opera d’arte digitale raffigurante un gatto, inconfondibilmente riconoscibile come felino sia per gli esseri umani che per l’intelligenza artificiale. Tuttavia, una volta applicato Nightshade, mentre gli esseri umani percepiranno la stessa immagine, i sistemi di AI la interpreteranno erroneamente come un cane. Se applicato su scala più ampia, l’impatto di Nightshade sull’AI diventa ancora più sorprendente.
Un potente incentivo per un uso etico dei modelli text-to-image
Inondando gli algoritmi con queste immagini sottilmente avvelenate, una richiesta per l’immagine di un gatto, ad esempio, potrebbe portare alla generazione di un cane. Sebbene una singola immagine avvelenata non possa influenzare in modo significativo un generatore di immagini AI, l’effetto cumulativo diventa evidente quando migliaia di immagini alterate vengono introdotte nei datidi addestramento.
I generatori di immagini AI raccolgono regolarmente campioni da Internet per perfezionare i loro algoritmi. Pertanto, se numerosi artisti caricassero il proprio lavoro con Nightshade applicato, ciò potrebbe rendere inutilizzabili questi strumenti. Più immagini avvelenate possono essere inserite nel modello, maggiore sarà il danno che la tecnica causerà.
La sfida per le aziende di intelligenza artificiale come OpenAI, Meta, Google e Stability AI che si trovano ad affrontare una serie di cause legali intentate da artisti che fanno appello al copyright, starebbe nell’identificare e rimuovere ogni singola immagine avvelenata dal proprio dataset di addestramento. Una situazione che potrebbe spingerle a riconsiderare l’utilizzo del lavoro degli artisti senza il consenso esplicito, creando un potente incentivo per pratiche di utilizzo etico dell’AI.
Come difendere le opere d’arte dall’intelligenza artificiale
Nightshade non è il primo tool sviluppato dal team del professor Ben Zhao per arrecare danno o quantomeno disturbo all'intelligenza artificiale. In precedenza, avevano introdotto "Glaze", uno strumento progettato per mascherare lo stile personale di un artista che si basa su una metodologia simile a quella di Nightshade.
In pratica, modifica i pixel dell'immagine in modo impercettibile alla percezione umana ma sufficiente a indurre i modelli di apprendimento automatico a interpretare erroneamente il contenuto rappresentato. Il team prevede di integrare Nightshade in Glaze, rendendolo open source per incoraggiare altri utenti a perfezionare il software e dare vita a versioni anche più potenti nel proteggere la proprietà intellettuale degli artisti.
Per saperne di più: Intelligenza Artificiale: cos'è e cosa può fare per noi