Nightshade: Artisti ‘avvelenano’ modelli IA

3 Novembre 2023
L’era dell’intelligenza artificiale generativa è in pieno sviluppo grazie a strumenti come ChatGPT, ma la sua crescita ha portato anche a un aumento delle polemiche. Numerosi artisti, performer e persino case discografiche hanno intentato cause legali contro le aziende di intelligenza artificiale, inclusa OpenAI, la creatrice di ChatGPT. La base di queste controversie è rappresentata dai dati di addestramento utilizzati per allenare questi modelli di intelligenza artificiale.
Infatti, questi modelli non potrebbero funzionare senza l’accesso a grandi quantità di contenuti multimediali dai quali apprendere. Inclusi materiali scritti e immagini prodotte da artisti che spesso non ne erano a conoscenza e non avevano dato il loro consenso all’utilizzo commerciale dei loro lavori per addestrare nuovi prodotti di intelligenza artificiale.
Fortunatamente, gli artisti hanno ora la possibilità di difendersi dall’intelligenza artificiale utilizzando la tecnologia a loro vantaggio. Un nuovo strumento open source chiamato Nightshade è stato sviluppato dai ricercatori dell’Università di Chicago, sotto la guida del professor Ben Zhao. Strumento nato per consentire agli artisti di proteggere le loro opere digitali dall’intelligenza artificiale. Nightshade può essere utilizzato per alterare i pixel delle immagini in modo invisibile all’occhio umano, ma che “avvelena” l’opera d’arte per i modelli di intelligenza artificiale che cercano di utilizzarla per l’addestramento. Vediamo nel dettaglio come funziona questo strumento innovativo.
La nascita di Nightshade
Nightshade è il risultato del lavoro dei ricercatori dell’Università di Chicago, guidati dal professor Ben Zhao. Questo strumento è stato sviluppato come estensione di un altro prodotto chiamato Glaze, che consente di camuffare le opere d’arte digitali e alterarne i pixel per confondere i modelli di intelligenza artificiale riguardo al loro stile. Nightshade va un passo oltre, in quanto induce i modelli di intelligenza artificiale ad apprendere nomi errati per gli oggetti e i paesaggi presenti nelle immagini.
Ad esempio, i ricercatori hanno alterato delle immagini di cani in modo che contenessero informazioni nei pixel che li facevano apparire come gatti agli occhi dei modelli di intelligenza artificiale. Dopo aver analizzato e appreso da soli 50 immagini “avvelenate“, l’intelligenza artificiale ha iniziato a generare immagini di cani con zampe strane e aspetti inquietanti.
Poi 100 immagini “avvelenate”. L’intelligenza artificiale generava regolarmente immagini di gatti quando gli veniva chiesto di mostrare un cane. Dopo 300 immagini, qualsiasi richiesta di un gatto restituiva un cane dall’aspetto quasi perfetto.
Come funziona il veleno di Nightshade
I ricercatori hanno utilizzato Stable Diffusion, un modello open source di generazione di immagini da testo, per testare Nightshade e ottenere i risultati descritti in precedenza. Grazie alla natura dei modelli di intelligenza artificiale generativa, che raggruppano parole e concetti concettualmente simili in cluster spaziali noti come “embeddings“, Nightshade è riuscito a far sì che Stable Diffusion generasse immagini di gatti quando venivano utilizzate parole come “husky”, “cucciolo” e “lupo”.
Inoltre, la tecnica di avvelenamento dei dati di Nightshade è difficile da contrastare, in quanto richiede agli sviluppatori dei modelli di intelligenza artificiale di individuare e scartare le immagini che contengono pixel “avvelenati”, che sono appositamente progettati per non essere riconoscibili all’occhio umano e possono essere difficili da individuare anche per gli strumenti software di scraping dei dati.
Qualsiasi immagine “avvelenata” già utilizzata per addestrare un modello di intelligenza artificiale dovrebbe essere individuata e rimossa. Se un modello di intelligenza artificiale è già stato addestrato su tali immagini, probabilmente sarà necessario addestrarlo nuovamente.
Le intenzioni dei ricercatori
I ricercatori dell’Università di Chicago riconoscono che il loro lavoro potrebbe essere utilizzato per scopi maliziosi. Ma sperano che possa contribuire a ristabilire un equilibrio di potere tra le aziende di intelligenza artificiale e gli artisti. Creando magari un deterrente efficace contro la violazione dei diritti d’autore e della proprietà intellettuale degli artisti.
Dopo la pubblicazione dell’articolo sul sito MIT Tech Review, il team di Glaze dell’Università di Chicago ha condiviso ulteriori dettagli sul progetto Nightshade tramite il social network X (ex Twitter). Hanno sottolineato l’asimmetria di potere esistente tra le aziende di intelligenza artificiale e i detentori dei contenuti, e hanno annunciato che stanno valutando come sviluppare e rilasciare Nightshade come strumento. Potrebbe essere integrato in Glaze/Webglaze come una funzionalità opzionale o potrebbe essere rilasciato come implementazione di riferimento open source.
I ricercatori hanno inoltre inviato un articolo su Nightshade per la revisione paritaria alla conferenza di sicurezza informatica Usinex, come riportato nel rapporto.
Conclusioni
Nightshade rappresenta un importante passo avanti nella difesa degli artisti dall’utilizzo non autorizzato delle proprie opere nell’addestramento dei modelli di intelligenza artificiale. Questo strumento consente agli artisti di proteggere le loro opere digitali alterando i pixel in modo invisibile all’occhio umano, ma che confonde i modelli di intelligenza artificiale.
Il lavoro dei ricercatori dell’Università di Chicago potrebbe contribuire a ristabilire un equilibrio di potere tra gli artisti e le aziende di intelligenza artificiale. Offrendo una soluzione innovativa per proteggere i diritti d’autore e la proprietà intellettuale degli artisti.