Divulgazione

Un nuovo tool consente agli artisti di “avvelenare le AI”

Tra gli infiniti problemi che abbiamo visto essere posti dalle AI generative, un problema non secondario è l’uso delle stesse nell’arte, come con Dall-E e Midjourney.

Un nuovo tool consente agli artisti di “avvelenare le AI”

I difensori delle “AI a tutti i costi” diranno che anche gli artisti umani imparano “imitando” altri artisti, ma per le AI generative spesso il problema è diverso: una AI generativa fa quasi esclusivamente photobashing.

Cerca nella rete, o nel pool di dati inseritovi, immagini e pezzi di immagine da combinare nell’illusione della creatività per ottenere un prodotto nuovo.

E se come abbiamo visto proprio qualche Lucca Comics and Games fa basta la sola accusa di Photobashing per far storcere il naso ad artisti e creativi, dare alle masse strumenti che si basano esclusivamente sul photobashing per creare “nuova arte” dai pezzi della loro arte senza alcuna tutela è percepito, anche logicamente, come assai odioso.

Per cui ecco uno strumento per “avvelenare le AI”, o meglio per impedirle di “imparare” ad usare quei pezzi.

Un nuovo tool consente agli artisti di “avvelenare le AI”

Parliamo di Nightshade, un tool che manipola le immagini in modo invisibile. Già le AI hanno enormi problemi con oggetti di cui hanno poche referenze. Ad esempio il marchio tipico delle creazioni in Intelligenza Artificiale sono mani deformi come artigli e sguardi distorti su volti che sembrano guardare nel vuoto con bocche altrettanto deformate, proprio perché mani e visi occupano sovente un piccolo spazio in immagini molto più grandi.

Nightshade si spinge oltre, confondendo il modello.

Se un utente chiede alla AI “Disegnami una mucca nello stile di [inserire artista]” la AI non disegnerà una mucca, ma cercherà nella sua banca dati una serie di immagini di mucche e di immagini dell’artista per poi assemblare pezzi di mucca in modo che siano coerenti con lo stile, interpolando il tutto con tratti presi dall’autore.

Nightshade confonde la parte del programma che consente all’AI di capire cosa è una mucca o meno, ad esempio ingannandola e spingendola a buttare nel prodotto finale pezzi di cani e gatti, rendendo l’opera inutilizzabile e il risultato sempre più pasticciato e confuso.

Siamo del resto in un ecosistema in cui non solo creativi, ma anche gestori di social cominciano a chiedersi come tenere i contenuti creati dai loro utenti lontani dalle banche dati delle AI, e Nightshade è un sistema per farlo.

Condividi
Pubblicato da
Tags: divulgazione

Articoli recenti

La spy story del passaporto russo di Zelensky scoperto da Anonymous è un falso Doppelganger

La spy story del passaporto russo di Zelensky scoperto da Anonymous è un falso Doppelganger: parliamo della campagna di guerra…

5 ore fa

No, non esiste alcuna data dopo la quale sarà abolito il bollo auto

Ci segnalano i nostri contatti un articolo che parla di una fantomatica data dopo la quale sarà abolito il bollo…

5 ore fa

No, non è tornata la leva obbligatoria (ancora una volta…)

Abbiamo ormai perso il conto degli articoli che ci parlano di come sarebbe tornata la leva obbligatoria in Italia, ricco…

5 ore fa

No, questi non sono immigrati che protestano contro il Natale a Bruxelles

Ci segnalano i nostri contatti un post che dovrebbe raffigurare immigrati che protestano contro il Natale a Bruxelles. Il post…

5 giorni fa

Quando un segnale proveniente dal cosmo diventa una scoperta epocale nei titoli (ma non nella realtà)

Quando si leggono titoli come "dopo 100 anni potremmo averla finalmente vista" riferiti alla materia oscura, è legittimo nutrire qualche…

5 giorni fa

La cometa 3I/ATLAS: perché Loeb sbaglia ad attaccare la NASA

La comunità scientifica assiste incredula alla deriva retorica di Avi Loeb, astrofisico di Harvard che ha trasformato il dibattito sulla…

5 giorni fa