Le campagne vaccinali che in tutto il mondo sono partite per contrastare la pandemia di Covid-19 si stanno scontrando non solo con le difficoltà logistiche legate alla produzione e alla distribuzione dei preparati, ma anche con lo scetticismo dei no-vax amplificato dalla diffusione di fake news e disinformazione a mezzo social. Tra le piattaforme che stanno cercando di arginare il fenomeno c'è anche YouTube: secondo quanto riportato da Axios, il portale di condivisione video ha rimosso ad oggi più di 30.000 video che contenevano informazioni false riguardo ai vaccini anti coronavirus.

Le regole di YouTube

YouTube non ha specificato di preciso che tipo di disinformazione contenessero i video rimossi, ma le nuove linee guida sul tema erano state adottate a ottobre e anticipavano che il lavoro di moderatori e algoritmi si sarebbe concentrato su "Tutti i contenuti che includono affermazioni sui vaccini anti Covid-19 e che contraddicono il parere degli esperti delle autorità sanitarie locali o dell'OMS". Dalle teorie più fantasiose sul fatto che i vaccini includano microchip 5G a quelle sul fatto che non funzionino o che rappresentino un modo per controllare la popolazione: tutte queste affermazioni contrarie al parere della comunità scientifica rimarranno nel mirino della piattaforma e i video che le contengono continueranno a essere rimossi.

Lotta alle fake news

YouTube aveva già fatto lo stesso con le fake news legate in generale a Covid-19, già da poche settimane dopo lo scoppio della pandemia, e il conto dei video rimossi appartenenti a questa categoria più ampia si avvicina ormai al milione. Questo non vuol dire che su YouTube (come sulle altre piattaforme impegnate sullo stesso fronte) siano sparite del tutto le fake news sulla pandemia: gli algoritmi non sono perfetti e possono lasciarsi sfuggire video dal contenuto disinformativo pericoloso. La cosa migliore per rimanere informati sul tema resta sempre consultare le fonti ufficiali, soprattutto ora che la campagna vaccinale sta per entrare nel vivo.