Mentre Facebook annuncia provvedimenti per tentare di arginare la diffusione di contenuti violenti sulle sue pagine, in Australia la legge sembra proseguire a passo decisamente più spedito. Il parlamento ha infatti approvato in queste ore una norma che sta già facendo discutere, e che prevede di punire i siti e le piattaforme che ospitano o favoriscono la diffusione di questi contenuti con multe multimilionarie e con il carcere per gli eventuali responsabili. In particolare il testo costringe le aziende a rimuovere "rapidamente" i contenuti violenti dai propri server e a informare le forze dell'ordine di eventuali episodi registrati, mentre a giudicare l'effettiva tempestività della rimozione potrebbe essere chiamata di volta in volta una giuria. Le multe possono arrivare al 10% del fatturato annuo globale delle aziende giudicate responsabili di eventuali violazioni, ma non solo: nel caso di eventuali responsabilità accertate nei confronti di singoli individui si parla di sanzioni pecuniarie fino a 2 milioni di dollari e di fino a tre anni di prigione.

Non è difficile immaginare la ragione dietro a misure tanto drastiche: il provvedimento è stato redatto dai legislatori australiani subito dopo l'attentato del 15 marzo a Christchurch, nella vicina Nuova Zelanda, nel quale il suprematista bianco Brenton Tarrant ha aperto il fuoco in due moschee uccidendo 50 persone e trasmettendo il tutto in diretta su Facebook. Il video, nonostante gli sforzi impiegati per rimuoverlo tempestivamente, è riuscito comunque a diffondersi online attirando sul social network critiche pesanti, comprese quelle del procuratore generale australiano, che ha accusato apertamente il social network (insieme a YouTube, Twitter e altre piattaforme) di non prendere sul serio la responsabilità della quale sono investiti.

Le ragioni del governo non potevano però non scontrarsi con quelle dell'industria digitale. A poche ore dall'approvazione del provvedimento, la rappresentante delle aziende del settore ha infatti puntato il dito contro la legge, "scritta e approvata in cinque giorni senza che le piattaforme coinvolte fossero consultate". Uno dei problemi della norma, denunciano le parti in causa, è che l'unico sistema efficace per impedire che contenuti del genere possano trovare spazio sulle piattaforme di condivisione è implementare un filtro molto restrittivo, che però finirebbe con il bloccare a priori contenuti potenzialmente innocui, semplicemente per non incorrere nelle sanzioni.