Divulgazione

Un nuovo tool consente agli artisti di “avvelenare le AI”

Tra gli infiniti problemi che abbiamo visto essere posti dalle AI generative, un problema non secondario è l’uso delle stesse nell’arte, come con Dall-E e Midjourney.

Un nuovo tool consente agli artisti di “avvelenare le AI”

I difensori delle “AI a tutti i costi” diranno che anche gli artisti umani imparano “imitando” altri artisti, ma per le AI generative spesso il problema è diverso: una AI generativa fa quasi esclusivamente photobashing.

Cerca nella rete, o nel pool di dati inseritovi, immagini e pezzi di immagine da combinare nell’illusione della creatività per ottenere un prodotto nuovo.

E se come abbiamo visto proprio qualche Lucca Comics and Games fa basta la sola accusa di Photobashing per far storcere il naso ad artisti e creativi, dare alle masse strumenti che si basano esclusivamente sul photobashing per creare “nuova arte” dai pezzi della loro arte senza alcuna tutela è percepito, anche logicamente, come assai odioso.

Per cui ecco uno strumento per “avvelenare le AI”, o meglio per impedirle di “imparare” ad usare quei pezzi.

Un nuovo tool consente agli artisti di “avvelenare le AI”

Parliamo di Nightshade, un tool che manipola le immagini in modo invisibile. Già le AI hanno enormi problemi con oggetti di cui hanno poche referenze. Ad esempio il marchio tipico delle creazioni in Intelligenza Artificiale sono mani deformi come artigli e sguardi distorti su volti che sembrano guardare nel vuoto con bocche altrettanto deformate, proprio perché mani e visi occupano sovente un piccolo spazio in immagini molto più grandi.

Nightshade si spinge oltre, confondendo il modello.

Se un utente chiede alla AI “Disegnami una mucca nello stile di [inserire artista]” la AI non disegnerà una mucca, ma cercherà nella sua banca dati una serie di immagini di mucche e di immagini dell’artista per poi assemblare pezzi di mucca in modo che siano coerenti con lo stile, interpolando il tutto con tratti presi dall’autore.

Nightshade confonde la parte del programma che consente all’AI di capire cosa è una mucca o meno, ad esempio ingannandola e spingendola a buttare nel prodotto finale pezzi di cani e gatti, rendendo l’opera inutilizzabile e il risultato sempre più pasticciato e confuso.

Siamo del resto in un ecosistema in cui non solo creativi, ma anche gestori di social cominciano a chiedersi come tenere i contenuti creati dai loro utenti lontani dalle banche dati delle AI, e Nightshade è un sistema per farlo.

Condividi
Pubblicato da
Tags: divulgazione

Articoli recenti

Da quando il NORAD segue Babbo Natale?

Natale si avvicina, e il NORAD segue Babbo Natale. Lo fa ogni anno, a cominciare dal primo Dicembre fino alla…

21 ore fa

Quest’uomo ha davvero imparato il giapponese dai film porno?

Ci segnalano i nostri contatti la storia di un uomo che ha imparato il giapponese dai film porno. Il testo…

22 ore fa

No, non esiste alcun poliziotto Daniel Reed denunciato per molestie sessuali dalla donna che ha salvato

Ci segnalano diversi contatti una lunga serie di video, in diverse lingue e su diversi social (tra cui ovviamente una…

4 giorni fa

No, questo non è un attore che ride a Bondi Beach perché l’attentato è falso

Ogni volta che nel mondo succede una strage, come quella a Bondi Beach in Australia, appare sempre qualcuno che si…

4 giorni fa

No, non è vero che la tastiera QWERTY serve per rallentare i dattilografi

Una delle più diffuse false credenze sulla tastiera QWERTY, il sistema più usato per macchine da scrivere e tastiere, è…

5 giorni fa

L’eterna clickbait degli esenti dal canone RAI

Ogni anno a dicembre ci sono degli appuntamenti fissi: Una Poltrona per Due in TV, Mamma ho perso l'Aereo in…

5 giorni fa