La moderazione AI sui social si regge sui più deboli: il prezzo della AI è che essa non cade dal cielo, non è una benedizione divina, non è “il futuro che fa tutto da sé”.
Quando le AI cancellano un contenuto pieno di violenza, sessuale e fisica, quando qualcuno decide di postare sui social una galleria degli orrori e viene fermato è perché qualcuno ha allenato i dataset, ovvero ha speso giornate a guardare video di violenze sessuali, stupri, mutilazioni, assassini, sangue e carne e violenza ed ha segnalato quei contenuti all’Algoritmo perché una macchina importasse nel suo processo decisionale il concetto “sangue e mer*a sbagliato, buongiornissimo caffé giusto”
E secondo un’indagine del post questo non avviene in ambienti sicuri, con personale addestrato a prendersi pause e richiedere aiuto psicologico.
Avviene nelle campagne e nei quartieri periferici di paesi come l’India.
L’India è una mecca di lavoratori a basso costo nelle viscere più molli del settori dell’IT, proprio per la combinazione estrema di disparità sociali e la presenza di una agenda digitale con la diffusione massiccia di Internet.
Dal “lato dei cattivi” abbiamo le troll farm, fabbriche di troll responsabili dirette di buona parte delle truffe e degli scam che arrivano anche da noi, con pochi industriali della truffa che raccolgono manovalanza per le truffe online.
Dal “lato degli angeli”? I ghost workers, i Fantasmi dell’Algorimo. Perlopiù donne, perlopiù persone scelte tra i poveri, gli ultimi, coloro per cui nell’India rurale un posto fisso nel settore IT è riuscire a vincere “la corsa della vita”, non dover più preoccuparsi se riuscire a mettere assieme pranzo e cena, e ottenere 400 euro sicuri e puliti al mese.
Il problema? Trovarsi a 26 anni a scegliere ad esempio se lavorare nei campi oppure cercare un posto dove la connessione prende e collegarsi. Ci sono foto di donne nell’articolo del Guardian, raccolte dal fotografo Anuj Behal. E ci sono le loro storie.
Storie di annotazione di contenuti, trascrizione di scene di pedopornografia, sesso e violenza “perché l’algoritmo le riconosca”. Scene di gestori dell’indotto virtuale che ti ripetono che “stai facendo il lavoro degli Angeli, proteggi gli innocenti”, mentre le immagini scorrono e con uno stipendio da 400 mensili e un lavoro venduto come “facile lavoro da remoto” dove la trovi assistenza psicologica qualificata?
Perché il problema è questo un moderatore dovrebbe aver diritto ad assistenza psicologica, ma un “annotatore di contenuti” non lo ottiene.
Gli viene presentato come una via facile per fuggire dalla miseria, e quello che ottiene è traumi che si accumulano ed orrore.
Le AI non si creano da sole: qualcuno deve essere il prodotto.
Ci segnalano i nostri contatti un post Threads secondo cui Valentino Rossi ha espresso preferenza per il no al Referendum…
La foto dei funerali delle vittime della scuola in Iran che sta circolando sui social è un falso. Il fatto…
Ci segnalano i nostri contatti un video descritto come un "uomo che simula un'aggressione a Nizza", datato 9 marzo su…
La settimana scorsa è apparso, puntuale come da Pokemon Day dei 30 anni, Pokopia, gioiosa celebrazione della saga in un…
Nintendo porta in tribunale gli USA, una volta e mezzo, se non due. Viviamo in tempi strani, e tutte e…
Ci segnalano i nostri contatti un post X che con malcelato (e francamente fuoriluogo) compiacimento descrive una giornalista Iraniana che…