Quando l’Intelligenza Artificiale diffonde fake news: il caso propaganda Russa

di Mattia Grandi |

bufala sindaco di lonigo
Quando l’Intelligenza Artificiale diffonde fake news: il caso propaganda Russa Bufale.net

No, quella di oggi non è una teoria del complotto. E se vi siete imbattuti in strane pubblicità di vodka o zuppa di barbabietole, forse ora saprete perché.

Un’indagine recente di Newsguard ha rivelato una realtà preoccupante: i 10 strumenti di intelligenza artificiale più diffusi al mondo (ad esempio ChatGPT, CoPilot e Gemini), hanno inconsapevolmente promosso gli obiettivi di disinformazione di Mosca. 

Come pilotare un chatbot

La strategia utilizzata dalla propaganda Russa è stata semplice e strettamente legata ai punti di debolezza intrinsechi al funzionamento dei chatbot: questa volta i famosi hacker non sono stati i protagonisti principali.

Il piano russo è stato articolato in due fasi:

Fase 1) Creazione di una rete di siti

In primo luogo, è stata costruita una vasta rete di siti proponenti notizie false, strettamente connessi in modo da aumentare vicendevolmente la propria rilevanza in rete (in super-sintesi, più volte un sito viene “citato” in rete, più aumenta la sua credibilità, con la conseguenza di scalare le classifiche tra i risultati dei motori di ricerca).

Quando l’Intelligenza Artificiale diffonde le fake news: il caso propaganda Russa

Quando l’Intelligenza Artificiale diffonde le fake news: il caso propaganda Russa

Questi siti sono stati progettati per produrre e pubblicare articoli in modo massivo, traducendoli in decine di lingue diverse in tutto il mondo. 

L’obiettivo di questa fase era rendere la narrazione più credibile agli “occhi” dei modelli di intelligenza artificiale.

Fase 2) Produzione di contenuti (articoli, immagini, video)

Successivamente, la rete ha iniziato a pubblicare un numero impressionante di articoli: nel report di Newsguard si parla di oltre 3.600.000 articoli nel solo 2024, con una media di quasi 10.000 al giorno. 

Questa valanga di contenuti mirava a influenzare direttamente le risposte dei modelli di intelligenza artificiale integrati nei chatbot relativamente agli argomenti di attualità, dato che questi sistemi formulano le loro risposte basandosi su ciò che trovano con una rapida ricerca online.

Il risultato di questa strategia è risultato allarmante: una volta su tre, i chatbot hanno fornito come risposta le narrazioni false diffuse da Pravda, la rete filo-Cremlino il cui nome, ironia della sorte, significa “verità” in russo.

Un Monito per il futuro dell’IA

Per ora, il caso è risultato essere circoscritto all’informazione ed alle ricerche online, e non si hanno informazioni sull’effettivo impatto politico di questa attività. 

Ma cosa succederà tra pochi anni, quando l’intelligenza artificiale influenzerà aspetti ancora più profondi della nostra vita?

Per ulteriori dettagli, potete consultare il report completo di NewsGuard qui

Se il nostro servizio ti piace sostienici su PATREON o con una donazione PAYPAL.

Ultimi Articoli