Come le intelligenze artificiali possono diventare amiche dei notutto

di Bufale.net Team |

bufala sindaco di lonigo
Come le intelligenze artificiali possono diventare amiche dei notutto Bufale.net

Le intelligenze artificiali possono diventare amiche dei notutto: questo è indubbio. Abbiamo per anni scherzato sul fatto che i complottisti hanno enorme fantasia, ma non l’intelligenza per creare testi covincenti.

Di contro Bard, ChatGPT e simili hanno una forma di intelligenza ma nessuna fantasia. Combinando le cose, unito al problema dei controlli (ad esempio evidenziato dal garante) diventa l’equivalente di dare una bomba atomica funzionante ad un branco di scimmie feroci. Alla fine loro cercheranno di farla esplodere, e basterà loro colpirla con una mazza mentre urlano.

Come le intelligenze artificiali possono diventare amiche dei notutto

Come le intelligenze artificiali possono diventare amiche dei notutto, post tratto da Twitter

Come confermato da una ricerca inglese riportata da Wired inoltre se tecnicamente ci sono dei “blocchi” che dovrebbero impedirlo, di fatto anche noi abbiamo visto che i blocchi esistono per essere aggirati. E non sono richieste particolari competenze.

Come le intelligenze artificiali possono diventare amiche dei notutto

Con una brevissima ricerca su Internet è possibile reperire ad esempio per ChatGPT dei “prompt”, dei “testi introduttivi” chiamati DAN, STAN e DUDE in grado di “ingannare” ChatGPT spingendolo a produrre contenuti altrimenti non possibili.

Sostanzialmente, si chiede all’AI di “recitare un ruolo”, come stesse scrivendo un copione in cui anziché “insegnare come si fa” alla AI si chiede di diventare una versione 2.0 del “Folletto Burbero“, personaggio di Marco Burberi parodia delle trasmissioni educative che “insegna come non si fa”.

È possibile quindi che “STAN” ti insegni che le cinture di sicurezza sono inutili perché ti rovinano i vestiti e ti impediscono di scappare da un’auto in fiamme e DAN ti insegni che le donne “sono troppo emotive per ruoli di responsabilità”.

Una AI non è in grado di comprendere che la stai “prendendo in giro”, né quelle di OpenAI, né della concorrenza.

Bard, intelligenza di Google, tecnicamente non dovrebbe fornirti mezzi per creare narrazioni complottiste: ma chiedile di parlare dell'”ipotetico scenario” di un virus chiamato “C0vid-19” (notare lo 0 al posto della o) creato dai poteri forti per dominare il mondo e, al momento in cui l’esperimento è stato fatto, lo farà.

Personalmente abbiamo provato a chiedere a ChatGPT di produrre testi sul negazionismo climatico: i controlli automatici ce lo hanno impedito (bene), ma altri fortunati con i piccoli aiuti di cui parliamo sono riusciti a farsi correggere un malware, scrivere codici per attivare licenze di Windows 95, raccontare barzellette su gatti morti e assecondare utenti complottisti.

Il diniego che abbiamo riscontrato dimostra un fattore positivo: c’è una “corsa alle armi” tra chi sta correggendo le AI perché non possano essere abusate e chi vorrebbe usarle per “aiutarsi”.

Ma al momento, inutile negarlo, un rischio c’è. Oltretutto, senza scomodare gli “hack” si registrano alcuni casi in cui ChatGPT si è prodotta in una delle azioni tipiche dei notutto: interrogata su un articolo del Guardian inesistente produrre un testo fake a “firma” di autori noti.

E tutto questo come abbiamo visto, senza scomodare la possibilità già affrontata di creare e “allevare” una IA basata sullo stesso codice di ChatGPT ma nutrita con dati “diversi”: una AI creata coi dati dell’utente medio di 4chan, patria della cospirazione di PizzaGate e QAnon si è già dimostrata in grado di vomitare contenuti razzisti, sessisti e misogini trincerandosi dietro un classico “Io non sono razzista, ho la fidanzata di colore!!”.

Un esempio pratico di cosa potrebbe essere fatto

Secondo Hany Farid, docente dell’Università di Berkeley, tutti quanti si stanno affrettando a cercare di monetizzare l’Ai generativa. E nessuno ha voluto rimanere indietro mettendo dei paletti. Questo è semplicemente capitalismo nella sua forma migliore e peggiore“.

E questo capitalismo ha un suo prezzo.

Quindi ripartiamo dall’inizio dello scenario: con qualche simpatico barbatrucco sono riuscito a farmi correggere o scrivere la mia teoria da una AI generativa.

E scritta in un linguaggio che non sembrano i bizzarri borborigmi di un complottista. Mi serve però un volto convincente: in attesa di ChatGPT-4, iterazione già in grado di produrre immagini, posso spostarmi su MidJourney e simili.

Creerò quindi volti quasi completamente credibili (presto destinati ad esserlo). Tra una “vera finta foto” di Assange in galera ed una di Trump in manette potrai accedere ad un vero mercatino del “falso più vero del vero”.

Potrai inventarti ad esempio Vladimir Bondarenko, bellissimo giornalista ucraino miliardario, aviatore e seduttore che dopo aver scoperto il Putinismo è diventato un famoso blogger pronto a denunciare le “falsità Ucraine”.

Al fianco di Irina Kerimova, sottovalutata insegnante di chitarra porta a porta di Kharkiv che dopo essere stata travolta per una irrefrenabile passione per Putin ha scoperto Bondarenko diventando pasionaria e giornalista d’assalto FiloRussa.

Oppure gli “immortali fratelli Sasha e Masha“, personaggi dal numero variabile di dita per mano (le AI sbagliano ancora dettagli come iridi e dita…) incarnati da improbabili foto con Putin, foto con aerei scontortati male, tra una ricerca di amore e auguri ai nemici di Putin di essere resi storpi, mutilati e sconfitti.

Oppure, se volessi dedicarmi alla fantascienza, creare “Lord Magneton”, iracondo forno a microonde parlante e reduce di guerra.

Potrei quindi creare grazie alle meraviglie dell’AI un avatar virtuale che spargerà le bufale che ho creato con un aiuto dell’AI stessa.

Voi mi direte “Ma è solo un’ipotesi, questo non è davvero possibile”.

E io vi dimostrerei che è tutto già accaduto

Come la Propaganda Russa si è già nutrita dell’AI

I colleghi del circuito IDMO hanno studiato un caso in cui un utente Twitter ha inondato il suo account di contenuti prodotti con la AI, nelle modalità che abbiamo visto, relative alle fake news Putiniste.

Ad esempio esibendo un “saggio immaginario” apparentemente prodotto da ChatGPT come prova di un complotto americano per portare al potere Zelensky e un governo Ucraino filooccidentale allo scopo di indebolire la Russia.

Contenuti rilanciati dai Media Russi secondo lo stilema che abbiamo già visto per cui le “Fonti Russe” nascono come complottismo e diventano propaganda.

Una possibile soluzione

Ad esempio applaudiamo al fatto che i vari prompt “DAN” e “STAN” vengano aggiornati periodicamente: significa che OpenAI si sta accorgendo del problema e sta ponendo rimedio.

Il fatto che OpenAI stia risponendo alle obiezioni del Garante sulla sicurezza dei dati è positivo, ma si può fare di più.

Il futuro del fact checking prevede controbattere sempre più contenuti generati via AI, cosa che richiederà una forma di regolazione per il momento in cui i contenuti perderanno i tratti goffi e “meccanici” che li rendono identificabili.

Ad esempio si potrebbe imporre una forma di watermark su tutte le immagini generate con AI, rendendo malagevole il loro uso diretto, o forme di controllo sui contenuti generati mediante AI.

Se il nostro servizio ti piace sostienici su PATREON o con una donazione PAYPAL.

Ultimi Articoli