Nel corso della giornata di oggi la redazione del Guardian ha pubblicato in Rete "cento documenti scottanti" riguardanti il social network Facebook. La notizia riguarda una serie di documenti interni che l'azienda di proprietà di Mark Zuckerberg utilizza per formare i dipendenti che si occupano della gestione dei contenuti pubblicati dagli utenti sulla piattaforma. Come riportato dalla fonte, la documentazione, subito etichettata come "Facebook Files", riporta le regole per i moderatori del social network, informazioni utili per comprendere in che modo comportarsi quando ci si ritrova davanti contenuti violenti, immagini pornografiche, post legati al terrorismo e fake news.

Fino a ieri il social network non ha mai rivelato dettagliatamente le regole che regolano i contenuti che visualizziamo nel News Feed della piattaforma, oggi invece il Guardian svela in che modo l'azienda con sede a Menlo Park decide quali contenuti vanno rimossi e quali no. A rendere ancora più interessante la scoperta dei giornalisti del noto quotidiano britannico un lungo elenco di "zone d'ombra". Come evidenziato anche da Repubblica, per Facebook "un atto di autolesionismo in diretta su Facebook non rappresenta un contenuto da rimuovere".

I video riguardanti abusi sui minori, se non sono di tipo sessuale, sono da rimuovere solo se costituiscono esaltazione della violenza o sadismo. Situazione analoga per i filmati che mostrano morti violente o foto riguardanti abusi su animali che vengono rimosse solo in alcuni casi. Altro dato preso in esame dai moderatori del social network è il numero di follower: gli utenti con più di centomila follower hanno meno protezione degli altri utenti poiché rappresentano una "figura pubblica".

Le principali regole per i moderatori di Facebook.

– Un'affermazione come "Qualcuno spari a Trump" dev'essere cancellata perché la persona in questione rappresenta un capo di stato e quindi in una delle categorie di persone considerate sensibili. Invece è permesso scrivere "Vaff*** e muori" oppure "Rompi il collo a quella, e assicurati di premere più che puoi sulla gola" perché non considerate minacce reali;
– I video contenenti morti violente non sempre devono essere cancellate dal social network perché possono aiutare a creare consapevolezza su temi come i disturbi mentali;
– Alcune foto di abusi (non sessuali) sui bambini o di bullismo non sempre devono essere cancellate a meno che non ci siano elementi sadici o celebrativi;
– Dipinti e illustrazioni con nudi e attività sessuale sono consentiti mentre non sono ammesse foto e video;
– Facebook ammette le dirette video di tentativi di autolesionismo perché "non vuole censurare o punire le persone in sofferenza";
– Tutti gli utenti con più di centomila follower rientrano nella categoria di "personaggio pubblico" e dunque perde ogni diritto alla privacy sul suo account, con meno tutele rispetto agli utenti privati.