Facebook "legge" 13 giornali italiani per capire quali sono le notizie più importanti in Italia e nel mondo. Lo rivelano i documenti pubblicati nel corso del polverone mediatico sollevato dalle polemiche secondo le quali il social network di Menlo Park avrebbe censurato determinati articoli e tematiche legate ai partiti conservatori, e quindi alla destra repubblicana, anche modificando la sezione Trending Topics, cioè quel piccolo box messo in evidenza in alcuni paesi – non in Italia – e dove vengono elencate le tematiche più calde del momento.
L'estensione del tanto chiacchierato algoritmo che governa le decisioni su cosa viene mostrato agli utenti all'interno del social network sarebbe più limitato di quanto previsto e, soprattutto, fortemente basato su un aiuto umano. Un vero e proprio team editoriale incaricato di curare la sezione Trending Topics e decidere che tipo di rilevanza dare ad una notizia. Lo svela un documento di 21 pagine pubblicato dal The Guardian – e successivamente dallo stesso Facebook, che ne ha lanciato uno da 28 pagine – e composto da indicazioni precise su come i dipendenti devono comportarsi con le varie notizie che quotidianamente affollano il social network.
Un lavoro su turni che va a fornire un importante supporto umano all'algoritmo di Facebook, che in questo caso si limita a "suggerire" gli argomenti più caldi che poi possono essere inseriti manualmente all'interno dei Trending Topics per godere di una spinta virale. In questo frangente la valutazione principale è costituita dal livello di importanza di una notizia, suddivisa in quattro categorie principali: normale, nazionale, maggiore e nucleare. È proprio in questo caso che Facebook "legge" i giornali di tutto il mondo e, in base alla copertura data ad un determinato evento, decide che importanza dare ad una news.
La categoria "normale" è quella standard utilizzata per le notizie basilari, mentre per poter selezionare "nazionale" il team deve assicurarsi che la notizia sia sulle prime pagine di almeno 5 tra queste 10 testate: BBC News, CNN, Fox News, The Guardian, NBC News, The New York Times, USA Today, The Wall Street Journal, Washington Post e BuzzFeed News. Il livello "maggiore" viene generalmente utilizzato per indicare la notizia della giornata, che deve caratterizzare tutte le prime pagine dei 10 giornali sopracitati. Questa lista, secondo il vice presidente delle Global Operations Justin Osofsky, sarebbe peraltro ben più ampia e comprenderebbe circa un migliaio di testate, anche italiane.
Sono 13 in tutto: Fanpage.it, Repubblica, Corriere della Sera, Il Fatto Quotidiano, Gazzetta, Libero, Meteofemminile, Mediaset.it, Msn.it, Rai.it, Sky.it, Tiscali e Virgilio. Poco più di una decina di testate che, secondo il social network, influenzano l'informazione italiana e vengono considerate come fonti da tenere sotto controllo per l'individuazione delle notizie più importanti a livello internazionale e nazionale. Anche se in Italia la sezione Trending Topics non esiste. Sono queste 13 testate che, in collaborazione con le altre realtà inserite all'interno del documento, hanno l'importante compito di fornire sopporto in caso di eventi particolarmente importanti su scala globale.
L'ultimo livello di importanza, infatti, viene definito "nucleare" non a caso: si tratta, secondo l'amministrazione di Facebook, di una funzione da utilizzare solo ed esclusivamente in casi particolarmente gravi, come gli attacchi dell'11 settembre, una dichiarazione di guerra o quando viene ucciso il presidente di una nazione. Proprio per l'importanza di questa categoria, per poter procedere alla sua pubblicazione gli editor devono necessariamente ottenere l'approvazione di un product leader di Facebook e sottostare a determinate caratteristiche, come, per esempio, il rappresentare l'apertura di almeno 8 dei 10 siti principali.
Insomma, nonostante il social abbia subito specificato che "nessun team si occupa di inserire artificialmente gli argomenti nei Trending Topics", le guide interne dimostrano il contrario. O, almeno, lo fanno se per "artificialmente" intendiamo in maniera soggettiva, cosa che in questo caso potrebbe non essere vera. D'altronde è lo stesso algoritmo che "suggerisce" agli editor le notizie più lette e condivise; l'apporto umano si rende necessario perché il software potrebbe perdersi notizie importanti, arrivando a "bucare" clamorosamente le notizie come successo con le proteste di Ferguson. Ora resta quindi da capire se questo sistema – oggettivo, almeno sulla carta – sia stato abusato da qualcuno, forse per censurare la voce repubblicana.
"Prendiamo questo rapporto molto seriamente e stiamo conducendo una completa investigazione per assicurarci che il nostro team sostenga l'integrità del nostro prodotto" ha spiegato il fondatore e CEO di Facebook. "Non abbiamo trovato nessuna prova che questo rapporto sia vero. Nel caso trovassimo qualcosa che va contro i nostri principi, avete la mia promessa che prenderemo provvedimenti per risolvere il problema". Zuckerberg ha inoltre assicurato che nel corso delle prossime settimane inviterà leader e sostenitori di stampo più conservatore a discutere la questione, ma anche che fino a quando guiderà l'azienda "la missione sarà quella di fornire uno strumento progettato per dare alle persone una voce e unire la nostra comunità".