Uno degli argomenti sempre più caldi oggi è l'utilizzo dell'intelligenza artificiale nel campo artistico, in questo senso i temi più significativi non sono solo per la protezione dei dati personali, ma anche per quella di opere d'arte e proprietà intellettuali. L'Università di Chicago ha fatto luce su un nuovo metodo di attacco cibernetico, battezzato "Nightshade", che mira ad "avvelenare" i modelli generativi di intelligenza artificiale.


L'attacco consiste nell'inserire nelle reti neurali immagini alterate, le cui etichette non corrispondono alla realtà visiva: un gatto viene modificato per apparire come un cane, creando confusione nel modello generativo e compromettendo drasticamente le sue prestazioni. Ciò che rende particolarmente insidioso questo tipo di attacco è la sua capacità di agire non solo sui singoli oggetti, ma anche sugli stili, consentendo addirittura la combinazione di diversi concetti "avvelenati".

L'implicazione più affascinante di Nightshade è il suo potenziale di diventare uno strumento di difesa per artisti e aziende, proteggendo il loro lavoro da un uso non autorizzato nel training di modelli AI. Questo è un passo significativo nel dibattito sul consenso e sui diritti di proprietà intellettuale nell'era dell'intelligenza artificiale.

Questo strumento, sviluppato dal professore dell'Università di Chicago, Ben Zhao, permette l'aggiunta di "modifiche invisibili" ai pixel di un'opera d'arte digitale. Ciò significa attribuire loro un significato completamente diverso rispetto a quello originale, trasformando, ad esempio, un tavolo in un gatto durante il processo di addestramento del modello.

L'obiettivo di Nightshade è chiaro: ribaltare l'equilibrio di potere nell'ambito dell'IA, soprattutto nel contesto delle aziende che utilizzano dati protetti da copyright per addestrare i propri modelli. Secondo il MIT Technology Review, Zhao mira a privare queste aziende della capacità di sfruttare dati protetti, aprendo così la strada a una democratizzazione dell'accesso ai modelli di Intelligenza Artificiale.

Ma la vera domanda è: Nightshade funziona davvero? Secondo quanto riportato da The Verge e dal documento di ricerca alla base dello strumento, che presto diventerà open source, sembra che il suo impatto sia notevole. Gli attacchi Nightshade possono destabilizzare le caratteristiche generali di un modello generativo testo-immagine, mettendo effettivamente fuori gioco la sua capacità di generare immagini significative.

Affiancato a Nightshade c'è un'altra soluzione intrigante: Glaze. Questo strumento, sviluppato dallo stesso team di ricercatori, maschera lo stile artistico di un'opera, trasformando, ad esempio, un'illustrazione in una foto 3D o un'opera realistica in un capolavoro cubista.

Con Nightshade e Glaze, gli sviluppatori hanno creato un tandem potente e flessibile. L'integrazione di Nightshade all'interno di Glaze offre agli utenti la libertà di scegliere: rendere illeggibile il proprio stile artistico o adottare direttamente la "pillola avvelenata". Questa scelta diventa ancor più significativa in assenza di una soluzione migliore o di un sistema di pagamento di royalties per l'utilizzo di dati protetti.

Ma quali saranno le conseguenze di questa scoperta? È probabile che, come per ogni nuova tecnologia, si svilupperanno metodi per contrattaccare e superare gli attacchi di Nightshade. La corsa tra la sicurezza informatica e gli hacker è senza fine, e questo nuovo capitolo non fa eccezione.

Nightshade e Glaze rappresentano un passo avanti significativo nell'evoluzione dell'Intelligenza Artificiale. La loro capacità di alterare le immagini e i modelli di addestramento apre nuove prospettive e solleva importanti questioni etiche riguardo all'utilizzo dei dati. Resta da vedere come questa innovazione influenzerà il panorama dell'IA e se porterà effettivamente a un cambiamento nell'equilibrio di potere attuale.

Con Nightshade entrato in gioco, ci troviamo di fronte a un paradosso: l'IA, strumento di progresso e innovazione, deve essere protetta dalle stesse tecniche che ha aiutato a sviluppare. La risposta a questo dilemma non è semplice, ma una cosa è certa: la battaglia per la sicurezza cibernetica è appena diventata più complessa.

Left B - Web Idea

newsletter image