social media terrorismo

I recenti drammatici fatti di Christchurch hanno portato di nuovo al centro dell'attenzione la divulgazione di contenuti violenti attraverso il web e, in particolar modo, i social media che hanno come scopo quello di fare propaganda. Nel caso specifico dell'attentato della cittadina neozelandese, l'australiano Brenton Tarrant, ora in carcere, aveva programmato tutto trasmettendo in diretta su Facebook Live la sua strage. Un caso gravissimo che ha pochi precedenti e che ha messo ancora una volta al centro della discussione il tema di come evitare che simili azioni, come quella di usare i social media per trasmettere una diretta di quel tipo, possano diffondersi e, in breve tempo, coinvolgere molte altre persone che potrebbero ripetere le stesse azioni. A questo punto torna di nuovo in voga la norma che l'Unione Europea ha già approntato lo scorso anno che prevede l'imposizione per le grandi piattaforme social media, come YouTube, Facebook, Twitter e altre, di rimuovere il contenuto entro un'ora dalla segnalazione e l'applicazione di filtri sempre più stringenti, in modo da non permettere la messa online di contenuti video violenti.

La bozza di legge europea è stata approntata in risposta al crescente fenomeno della propaganda terroristica che usa molto i social media come strumenti di comunicazione e di proselitismo. Una risposta ai tragici eventi del Bataclan di Parigi, di Nizza, di Manchester e ora, con i fatti di Christchruch quella legge diventa essenziale da approvare, proprio per il fatto che i social media in questo ultimo tragico fatto di violenza hanno giocato un ruolo primario.

Le misure previste da questa norma riguardano la rimozione dei contenuti entro un'ora dalla segnalazione; inoltre, è previsto l'introduzione di filtri in modo tale da evitare la messa online di contenuti violenti. Nel caso dell'omicida Brenton Tarrant, queste misure sarebbero potute rivelarsi utili. Facebook ha fatto sapere che il video in diretta ha avuto 200 utenti collegati, mentre il video è stato poi visto 4 mila volte prima della sua rimozione. Quindi ci si è trovati di fronte a tempi molto lunghi prima che intervenisse la piattaforma e, nel caso in cui fosse stata in vigore la norma europea, Facebook avrebbe rischiato una multa parti al 4 percento del fatturato annuo, vale a dire circa 600 milioni di euro, considerano il fatturato dello scorso anno di 17 miliardi di dollari.

Il limite di un'ora trova una sua spiegazione nel fatto che lasciando il contenuto, spesso video, online per un periodo di tempo superiore, questo finisce per moltiplicare nel giro di pochissimo tempo l'audience per 10 volte almeno. L'importanza dell'introduzione dei filtri avrebbe un valore ancora più efficace per il fatto che, una volta eliminato il video in questione, lo stesso potrebbe poi ricomparire sotto altre diciture e indicazioni a distanza di giorni. L'esistenza di un filtro renderebbe impossibile il caricamento del contenuto, anche a distanza di tempo. Il problema, ed è quello su cui si sta consumando lo scontro, è la difficoltà nel settare i valori dei filtri perchè mentre è più "semplice" creare dei filtri per impedire il caricamento di video pedo-pornografici, lo stesso non si può dire per video che incitano alla violenza e al terrorismo.

Ovviamente, di fronte alla emergente richiesta di un intervento su cui l'accordo sembra molto vasto, è chiaro che si tratta di una norma molto delicata. Infatti, se i sostenitori la ritengono necessaria in questo momento particolare, i detrattori, quindi quelli più critici, sostengono che questa norma possa mettere a rischio i principi di una rete libera e aperta che può mettere anche a repentaglio il grande lavoro dell'anti-terrorismo.

Si tratta di un tema molto delicato e se un elemento può essere colto da queste tristi e drammatiche esperienze è quello che le piattaforme al momento non sono pronte e attrezzate ad affrontare fenomeni simili e, come abbiamo visto nei fatti di Christchurch, queste stesse piattaforme possono essere manipolate.