Approfondimento

Studio Universitario conferma: Scacchista bloccato da YouTube per aver usato “neri contro bianchi”

La storia dello scacchista bloccato da YouTube per aver usato “neri contro bianchi” l’avrete letta in questi giorni, e parla del modo sbagliato per combattere l’odio in Rete.

Certo, non possiamo pretendere un costante controllo umano sulla fiumana di commenti che costantemente tracimano nella Rete e dintorni. Ma se demandi tutto a una intelligenza artificiale, e la stessa ti banna per aver usato “neri contro bianchi” parlando di un incontro di scacchi, allora abbiamo un problema.

Ed anche un problema bello grave.

Scacchista bloccato da YouTube per aver usato “neri contro bianchi” – riassunto delle puntate precedenti

La storia comincia a Luglio 2020 sul canale Agadmator’s Chess Channel, un milione di abbonati a Febbraio 2021, che ospita “podcast”, commenti in streaming di partite di scacchi.

Il suo conduttore, Antonio Radić è uno YouTuber croato e giocatore di scacchi, al momento (dati i numeri coinvolti) lo YouTuber più popolare del settore.

Purtroppo, come abbiamo più volte visto per Twitch, anche YouTube talvolta sembra affidarsi troppo agli automatismi, e senza un “No stream Day” per protestare.

A Luglio 2020, dicevamo, Radić posta il commento di una partita del Giapponese-Americano Hikaru Nakamura, usando l’ordinario gergo scacchistico. Nel video non c’è niente diverso rispetto agli altri.

Si parla di cose come “neri contro bianchi” e “il nero muove in B6 al posto di C6. I bianchi vanno sempre meglio”.

Frasi assolutamente innocenti in gergo scacchistico, ma YouTube blocca l’intero Podcast senza ragione, costringendo un demotivato Radić ad adire le procedure di appello interno.

La procedura ha effetto: ventiquattro ore, misteriosamente come è stato cancellato, il Podcast ritorna, senza alcuna risposta.

Fosse per noi, la storia finirebbe qui. Ma è quel “senza apparente motivo” che ha scatenato la voglia di capire.

Lo Studio Universitario

Entra ora in scena l’Università Carnegie Mellon, sede delle prime scuole di informatica negli USA.

In assenza di risposte chiare, Ashiqur KhudaBukhsh e Rupak Sarkar, ricercatori della Carnegie Mellon, hanno speso gli ultimi mesi a sottoporre a rigidi test e simulazioni gli algoritmi usati per individuare il “linguaggio d’odio” nei Social, specializzandosi negli scacchi.

Scoprendo, con loro somma costernazione, che su un campione statistico di mille commenti a tema scacchistico, l’algoritmo ha reso l’82% di falsi positivi.

Ogni commento che parlava di “bianchi”, “neri”, “attacco”, “minaccia” e ogni forma di slang scacchistico riguardante le origini del gioco come competitivo e simulazione di scontro militare (per quanto artefatto) portava ad una segnalazione come “discorso d’odio”.

Secondo KhudaBukhsh simili algoritmi si basano su correttivi, dimostrati però al momento insufficiente. In questo caso, assai probabilmente l’algoritmo contiene al suo interno esempi di frasi proferite o usate da scacchisti.

Ciò comunque concorda che ove il contesto non sia fornito nel commento stesso, ma nel video, il commento singolo possa registrare un falso positivo.

Pensiamo ai casi evidenziati di “nero contro bianco”, il “bianco attacca il nero” e “i bianchi vanno sempre meglio”.

Un’intelligenza artificiale che cerca il contesto nella frase, vedendo queste tre frasi isolate non riuscirà a capire se si parla di una partita di scacchi, di una guerra tra bande o del commento di un suprematista bianco che incita alla rivolta violenta contro le persone di colore.

Le conclusioni

YouTube, interpellato dal Daily Mail, conferma che in caso di falsi positivi un appello dell’utente comporterà sempre un controllo manuale e quindi la rimozione del blocco.

Ma senza conferme sul meccanismo che rende i blocchi possibili, prospettive evolutive sugli stessi, i dubbi restano ed evidenti.

Abbiamo già visto, ad esempio, commentatori legati a QAnon usare sistemi di offuscamento assai primitivo per continuare i loro veri e propri contenuti di odio. Ad esempio, vergando minacce a Biden scrivendo il nome del Presidente degli USA come “Bi.den” con dei punti in mezzo o storpiature varie, da “Bidet” in poi.

L’uso di storpiare nomi di avversari politici, etnie e insulti razziali spesso non deriva da semplice ignoranza grammaticale o spirito infantile, ma dal tentativo di individuare la variante non censita dall’algoritmo e insistere sulla stessa.

Un sistema basato sull’algoritmo ha quindi un duplice rischio: sanzionare il falso positivo generando disaffezione, demotivazione e livore da un lato. Dall’altro, premiare la “creatività” del vero Seminatore d’Odio consentendogli di disseminare la sua mercanzia con astuzia.

Ci vuole un forte miglioramento del controllo delle IA.

Articoli recenti

No, non è vero che la Russia ha donato 150 milioni di Euro alla Sicilia

Ci segnalano i nostri contatti una salva di post su FB (uno archiviato qui) secondo cui la Russia ha donato…

1 giorno fa

Il Dreamcast, la fine dell’era dell’era Retro, del mondo arcade e del mondo SEGA

Venticinque anni fa finiva l'avventura del SEGA Dreamcast. Venticinque anni fa, abbiamo già visto, convenzionalmente si chiudeva l'intera era del…

1 giorno fa

Il fotoromanzo social della figlia di Jason Momoa, di Adam Sandler e altri VIP

Ci segnalano i nostri contatti il proliferare di una tipologia particolare di fotoromanzi social, legata al filone delle Figlie dei…

2 giorni fa

No, questo non è l’autista denunciato per aver lasciato un bambino fuori dall’autobus a Belluno

Ci segnalano i nsotri contatti una serie di post che dovrebbero essere dell'autista denunciato per aver lasciato un bambino fuori…

2 giorni fa

MAGA e QAnon pubblicano fake per dichiarare Alex Pretti un predatore sessuale di minori

Ci segnalano i nostri contatti un account Facebook riportante il Q simbolo dei QAnon che dichiara Alex Pretti un predatore…

3 giorni fa

La storia del Cittadino Argentino che boicotta le uova è uno dei primi fotoromanzi social

Ci segnalano i contatti la storia di un Cittadino Argentino che boicotta le uova, apparsa su Instagram recentemente ma che…

3 giorni fa