“Vedo teste mozzate tutti i giorni”: i racconti dei moderatori di Facebook
Il Guardian ha avviato una indagine su come Facebook regola i contenuti violenti o che facciano esplicito riferimento al sesso. Indagine che ha fatto e fa ancora molto discutere e che riguarda proprio il lavoro dei "moderatori" che il colosso di Menlo Park ha deciso di assumere per evitare altri episodi violenti come quelli che hanno recentemente coinvolto la piattaforma. Ma come lavorano questi moderatori e, soprattutto, con quali criteri decidono cosa mostrare e cosa censurare? Di certo non è un lavoro semplice per di contenuti violenti, cruenti ne è piena la piattaforma.
I moderatori di Facebook iniziano il loro lavoro quando arrivano segnalazioni specifiche dagli utenti, si parla di segnalazioni che arrivano quasi ogni minuto, un lavoro enorme e duro per via dell'impatto emotivo che questo comporta. Ogni giorno hanno quindi hanno a che fare con contenuti che riportano teste mozzate, bambini morenti, contenuti che mettono a dura prova lo stato psicologico di chi è addetto a questo compito. Facebook assicura per questa mansione un periodo di training specifico e un'assistenza psicologica diretta, proprio per cercare di affiancare quanto più possibile gli addetti che ogni giorno hanno a che fare con contenuti particolarmente violenti. Il training introduttivo dura due settimane.
Dall'inchiesta del Guardian è emerso che i moderatori non sono assunti direttamente dall'azienda di Mark Zuckerberg, ma vengono assunti da agenzie interinali e che spesso sono immigrati con una conoscenza dell'inglese non proprio ottimale. Elementi che hanno sollevato un nuovo polverone di polemiche.
Interessante resta comunque quello che ha risposto la responsabile globale per le policy di Facebook, Monica Bickert, sul polverone sollevato dal Guardian che ha svelato le linee guida segrete del social per la moderazione di argomenti sensibili. In pratica quello che i moderatori devono considerare è il contesto, questa la vera sfida, sottolinea la Bickert. "Qualcuno pubblica un video cruento di un attacco terroristico". Porterà "all'emulazione della violenza o alla sua condanna?", si chiede la Bickert. Proprio quello che è accaduto con l'attacco chimico in Siria, oggetto di un video diventato virale che mostrava anche bambini agonizzanti: "Le immagini erano scioccanti", ma "hanno anche sollevato indignazione internazionale e riacceso i riflettori sulla Siria".
Oltre a questo bisogna considerare anche il tempo che i moderatori hanno per decidere, secondo le fonti citate dal Guardian si parla di pochi secondi. Una volta che viene segnalato il contenuto capita spesso che il moderatore proceda tardivamente a sospendere il contenuto. Si tratta quindi di contesto da considerare e tempo di decisione che può in effetti portare ad una scelta sbagliata.
Quello dei moderatori non è un lavoro facile, questo era chiaro, ma dato il rilevante compito a cui sono chiamati e il forte stress emotivo a cui sono sottoposti, forse è il caso di migliorare la fase di affiancamento e di assistenza per questo tipo di compito. Il Guardian rileva giustamente che Internet Watch Foundation e dello US National Center for Missing and Exploited Children, organizzazioni per la difesa dei diritti dei minori sul web, il periodo di training ha una durata di sei mesi, per poi migliorare la sua resistenza a questo tipo di contenuti con un affiancamento psicologico periodico.