Nel corso degli ultimi mesi tutte le principali aziende tecnologiche si sono ritrovate a dover fare i conti con una sempre maggiore richiesta di bloccare la diffusione di contenuti violenti ed estremisti, spesso legati al terrorismo. Una pressione che ha spinto i vertici di YouTube a pubblicare una lettera aperta sul Financial Times nella quale vengono descritti 4 nuovi punti con i quali il colosso della pubblicazione di video online contrasterà l'attività estremista all'interno della sua piattaforma di condivisione.

L'editoriale, firmato dal senior vice President di YouTube Kent Walker, spiega che l'azienda sta già collaborando con diversi governi e autorità per identificare e rimuovere queste tipologie di contenuti, ma anche che ha messo punto nuovi modi per contrastarne la diffusione. Il primo è l'espansione dell'utilizzo del sistema automatico in grado di identificare i video legati al terrorismo utilizzando l'intelligenza artificiale per individuare più velocemente questi contenuti. Inoltre YouTube espanderà anche il gruppo dei cosiddetti "Trusted Flagger", cioè utenti "speciali" in grado di segnalare contenuti che violano le linee guida del portale.

Il terzo step è rappresentato dall'attuazione di provvedimenti più duri verso i video che violano gli standard della comunità, i quali saranno nascosti da un avviso – ma non eliminati – e non potranno generare introiti pubblicitari per gli account che li hanno pubblicati. Infine, l'ultimo passaggio è il potenziamento dell'iniziativa Creators for Change, un programma che "dirotta" gli utenti presi di mira dai gruppi estremisti verso contenuti anti-terrorismo. Walker spiega inoltre che YouTube sta collaborando con realtà come Facebook e Twitter per sviluppare strumenti e tecniche in grado di supportare l'anti-terrorismo online in maniera più estesa.