Studio Universitario conferma: Scacchista bloccato da YouTube per aver usato “neri contro bianchi”

di Shadow Ranger |

bufala sindaco di lonigo
Studio Universitario conferma: Scacchista bloccato da YouTube per aver usato “neri contro bianchi” Bufale.net

La storia dello scacchista bloccato da YouTube per aver usato “neri contro bianchi” l’avrete letta in questi giorni, e parla del modo sbagliato per combattere l’odio in Rete.

Certo, non possiamo pretendere un costante controllo umano sulla fiumana di commenti che costantemente tracimano nella Rete e dintorni. Ma se demandi tutto a una intelligenza artificiale, e la stessa ti banna per aver usato “neri contro bianchi” parlando di un incontro di scacchi, allora abbiamo un problema.

Ed anche un problema bello grave.

Scacchista bloccato da YouTube per aver usato “neri contro bianchi” – riassunto delle puntate precedenti

La storia comincia a Luglio 2020 sul canale Agadmator’s Chess Channel, un milione di abbonati a Febbraio 2021, che ospita “podcast”, commenti in streaming di partite di scacchi.

Il suo conduttore, Antonio Radić è uno YouTuber croato e giocatore di scacchi, al momento (dati i numeri coinvolti) lo YouTuber più popolare del settore.

Purtroppo, come abbiamo più volte visto per Twitch, anche YouTube talvolta sembra affidarsi troppo agli automatismi, e senza un “No stream Day” per protestare.

A Luglio 2020, dicevamo, Radić posta il commento di una partita del Giapponese-Americano Hikaru Nakamura, usando l’ordinario gergo scacchistico. Nel video non c’è niente diverso rispetto agli altri.

Si parla di cose come “neri contro bianchi” e “il nero muove in B6 al posto di C6. I bianchi vanno sempre meglio”.

Frasi assolutamente innocenti in gergo scacchistico, ma YouTube blocca l’intero Podcast senza ragione, costringendo un demotivato Radić ad adire le procedure di appello interno.

La procedura ha effetto: ventiquattro ore, misteriosamente come è stato cancellato, il Podcast ritorna, senza alcuna risposta.

Fosse per noi, la storia finirebbe qui. Ma è quel “senza apparente motivo” che ha scatenato la voglia di capire.

Lo Studio Universitario

Entra ora in scena l’Università Carnegie Mellon, sede delle prime scuole di informatica negli USA.

In assenza di risposte chiare, Ashiqur KhudaBukhsh e Rupak Sarkar, ricercatori della Carnegie Mellon, hanno speso gli ultimi mesi a sottoporre a rigidi test e simulazioni gli algoritmi usati per individuare il “linguaggio d’odio” nei Social, specializzandosi negli scacchi.

Scoprendo, con loro somma costernazione, che su un campione statistico di mille commenti a tema scacchistico, l’algoritmo ha reso l’82% di falsi positivi.

Ogni commento che parlava di “bianchi”, “neri”, “attacco”, “minaccia” e ogni forma di slang scacchistico riguardante le origini del gioco come competitivo e simulazione di scontro militare (per quanto artefatto) portava ad una segnalazione come “discorso d’odio”.

Secondo KhudaBukhsh simili algoritmi si basano su correttivi, dimostrati però al momento insufficiente. In questo caso, assai probabilmente l’algoritmo contiene al suo interno esempi di frasi proferite o usate da scacchisti.

Ciò comunque concorda che ove il contesto non sia fornito nel commento stesso, ma nel video, il commento singolo possa registrare un falso positivo.

Pensiamo ai casi evidenziati di “nero contro bianco”, il “bianco attacca il nero” e “i bianchi vanno sempre meglio”.

Un’intelligenza artificiale che cerca il contesto nella frase, vedendo queste tre frasi isolate non riuscirà a capire se si parla di una partita di scacchi, di una guerra tra bande o del commento di un suprematista bianco che incita alla rivolta violenta contro le persone di colore.

Le conclusioni

YouTube, interpellato dal Daily Mail, conferma che in caso di falsi positivi un appello dell’utente comporterà sempre un controllo manuale e quindi la rimozione del blocco.

Ma senza conferme sul meccanismo che rende i blocchi possibili, prospettive evolutive sugli stessi, i dubbi restano ed evidenti.

Abbiamo già visto, ad esempio, commentatori legati a QAnon usare sistemi di offuscamento assai primitivo per continuare i loro veri e propri contenuti di odio. Ad esempio, vergando minacce a Biden scrivendo il nome del Presidente degli USA come “Bi.den” con dei punti in mezzo o storpiature varie, da “Bidet” in poi.

L’uso di storpiare nomi di avversari politici, etnie e insulti razziali spesso non deriva da semplice ignoranza grammaticale o spirito infantile, ma dal tentativo di individuare la variante non censita dall’algoritmo e insistere sulla stessa.

Un sistema basato sull’algoritmo ha quindi un duplice rischio: sanzionare il falso positivo generando disaffezione, demotivazione e livore da un lato. Dall’altro, premiare la “creatività” del vero Seminatore d’Odio consentendogli di disseminare la sua mercanzia con astuzia.

Ci vuole un forte miglioramento del controllo delle IA.

Se il nostro servizio ti piace sostienici su PATREON o con una donazione PAYPAL.

Ultimi Articoli