Il lavoro impossibile dei moderatori di contenuti

Il 30 giugno, ieri, si è celebrato il Social Media Day, la giornata mondiale dei social media. La celebrazione nacque nel 2010 quando Mashable decise di sottolineare in questo modo l’impatto dei social media nella comunicazione globale. Erano già passati 13 anni dal lancio della prima piattaforma social, Sixdegrees, fondata nel 1997 da Andrew Weinreich, per consentire ai suoi utenti di elencare amici e familiari, profili e affiliazioni scolastiche. 

Seguito dalla nascita di Friendster, MySpace, Facebook e poi Twitter, Instagram, LinkedIn, TikTok, i social media oggi hanno 4,3 miliardi di iscritti a livello globale con una crescita di mezzo milione di nuovi utenti ogni anno. E oggi più del 53% della popolazione mondiale è membro di almeno un social.

Ma non c’è da stare allegri. Se ieri l’azienda di cybersecurity Check Point Software ha messo in guardia gli utenti dagli attacchi che puntano a rubare gli account di queste piattaforme, il pericolo è un altro: quello di dargli la possibilità di decidere ciò che è lecito e ciò che non lo è. Decidere ciò che è falso e ciò che è vero, secondo criteri fintamente neutrali che dipendono da chi li applica, i moderatori, e dalle cangianti e complesse policy a cui devono sottostare.

L’ha spiegato bene Jacopo Franchi nel libro Gli Obsoleti. Il lavoro impossibile dei moderatori di contenuti (Agenzia X, 2021) che racconta le storie di questi supereroi del digitale senza i quali gli algoritmi che gestiscono i feed non potrebbero funzionare. 

Un esercito di circa 150 mila persone dislocate in tutto il mondo – 1000 solo a Berlino – che devono rimanere ignote agli utenti per illuderci della neutralità delle piattaforme stesse, che però non esisterebbero senza i moderatori in quanto come ha detto Tarleton Gillespie “L’attività di moderazione cambia il modo in cui percepiamo la piattaforma: non è un modo per diffondere ciò che pubblichiamo, ma uno strumento che definisce la realtà che vediamo.”

Con un effetto aggiuntivo, quello di farci credere alla “scomparsa del lavoro umano e alla completa automazione di certi compiti”; e un altro peggiorativo: illuderci di trovarci di fronte a un’intelligenza artificiale perfetta ed equidistante che non sbaglia mai, quando invece ci troviamo di fronte ad esseri umani che valutano i post che pubblichiamo in rete.

Un essere umano che non può e non deve interagire con gli utenti che fanno le segnalazioni, che chiedono una rimozione, che cercano una relazione. La policy a cui sono sottoposti i moderatori non lo consente, pena il richiamo prima e il licenziamento dopo. 

Ma se empatizzare con gli utenti è impossibile, i moderatori devono gestirne i contenuti emotivi, rabbiosi, pericolosi, che l’algoritmo non è programmato a discernere.

Così, quello che parrebbe un lavoro a bassa specializzazione implica la complessità di capire se il video di un crimine può essere lasciato online come prova per chi dovrà perseguirlo o decidere come trattare la fake news di un politico e di un adolescente. 

Come ha raccontato un raro whistleblower del settore: “Ogni moderatore deve gestire circa 1300 contenuti giornalieri ed ha pochissimo tempo per reagire a una segnalazione e prendere una decisione che deve diventare automatica”.

La scelta finale è rimanere fedeli alla routine: “visualizza, elimina, passa al successivo”. Una sorta di catena di montaggio digitale con turni massacranti che finisce solo con l’esaurimento psicofisico dei lavoratori pagati a cottimo che, in simbiosi con l’algoritmo, decidono se un contenuto diventerà virale o meno. Il Social Media Day andrebbe dedicato a loro.