La moderazione AI sui social si regge sui più deboli
La moderazione AI sui social si regge sui più deboli: il prezzo della AI è che essa non cade dal cielo, non è una benedizione divina, non è “il futuro che fa tutto da sé”.
Quando le AI cancellano un contenuto pieno di violenza, sessuale e fisica, quando qualcuno decide di postare sui social una galleria degli orrori e viene fermato è perché qualcuno ha allenato i dataset, ovvero ha speso giornate a guardare video di violenze sessuali, stupri, mutilazioni, assassini, sangue e carne e violenza ed ha segnalato quei contenuti all’Algoritmo perché una macchina importasse nel suo processo decisionale il concetto “sangue e mer*a sbagliato, buongiornissimo caffé giusto”
E secondo un’indagine del post questo non avviene in ambienti sicuri, con personale addestrato a prendersi pause e richiedere aiuto psicologico.
Avviene nelle campagne e nei quartieri periferici di paesi come l’India.
La moderazione AI sui social si regge sui più deboli
L’India è una mecca di lavoratori a basso costo nelle viscere più molli del settori dell’IT, proprio per la combinazione estrema di disparità sociali e la presenza di una agenda digitale con la diffusione massiccia di Internet.
Dal “lato dei cattivi” abbiamo le troll farm, fabbriche di troll responsabili dirette di buona parte delle truffe e degli scam che arrivano anche da noi, con pochi industriali della truffa che raccolgono manovalanza per le truffe online.
Dal “lato degli angeli”? I ghost workers, i Fantasmi dell’Algorimo. Perlopiù donne, perlopiù persone scelte tra i poveri, gli ultimi, coloro per cui nell’India rurale un posto fisso nel settore IT è riuscire a vincere “la corsa della vita”, non dover più preoccuparsi se riuscire a mettere assieme pranzo e cena, e ottenere 400 euro sicuri e puliti al mese.
Il problema? Trovarsi a 26 anni a scegliere ad esempio se lavorare nei campi oppure cercare un posto dove la connessione prende e collegarsi. Ci sono foto di donne nell’articolo del Guardian, raccolte dal fotografo Anuj Behal. E ci sono le loro storie.
Storie di annotazione di contenuti, trascrizione di scene di pedopornografia, sesso e violenza “perché l’algoritmo le riconosca”. Scene di gestori dell’indotto virtuale che ti ripetono che “stai facendo il lavoro degli Angeli, proteggi gli innocenti”, mentre le immagini scorrono e con uno stipendio da 400 mensili e un lavoro venduto come “facile lavoro da remoto” dove la trovi assistenza psicologica qualificata?
Perché il problema è questo un moderatore dovrebbe aver diritto ad assistenza psicologica, ma un “annotatore di contenuti” non lo ottiene.
Gli viene presentato come una via facile per fuggire dalla miseria, e quello che ottiene è traumi che si accumulano ed orrore.
Le AI non si creano da sole: qualcuno deve essere il prodotto.
Se il nostro servizio ti piace sostienici su PATREON o
con una donazione PAYPAL.