Terrapiattismo, Illuminati, alieni, mutaforma, Terra cava, sacrifici satanici e bambole assassine. Non sono le trame di una nuova serie Netflix, ma una piccola parte di un mare di disinformazione che su TikTok sta diventando sempre più rilevante e incontrollato, sospinto (e incredibilmente non limitato) dall'algoritmo che a questi contenuti al tempo stesso sensazionalistici e falsi garantisce decine di milioni di visualizzazioni. Video che da mesi ottengono una quantità enorme di visibilità, condivisioni e ritorni monetari nonostante la presenza di informazioni non verificate, spesso totalmente inventate e potenzialmente pericolose. Questo elemento non sembra interessare né all'algoritmo né alla moderazione della piattaforma che, anzi, sembra essere sempre più attiva nel bloccare contenuti giornalistici che, però, rappresentano l'informazione verificata. Ma sempre più difficile da pubblicare su TikTok.
I focolai di disinformazione sulla piattaforma cinese sono tanti e spesso enormi, tanto che viene da chiedersi se la guerra alle bufale sull'app sia stata già definitivamente persa da una moderazione che ormai ha sventolato bandiera bianca. Prendiamo uno degli esempi più clamorosi: tythecrazyguy, un ragazzo americano che da tempo condivide teorie cospirazioniste su TikTok come parte del suo format chiamato "ConspiraTEA". Sulla piattaforma ha 3,7 milioni di follower e 98,2 milioni di Mi piace. Il conteggio delle visualizzazioni è fuori scala: solo gli ultimi 10 video hanno generato un totale di oltre 33 milioni di visualizzazioni. Parlano di Illuminati, di mutaforma nelle foreste, di Terra cava, di alieni e del fatto che OJ Simpson sarebbe il vero padre di Khloe Kardashian. Tutti i video si aprono con la frase "Dobbiamo parlare di questo", che il ragazzo ripete come un mantra nei primi secondi dei filmati. In una delle condivisioni più recenti sostiene l'ipotesi che Post Malone sia in realtà Justin Bieber. Il post ha un milione di visualizzazioni, 180.000 Mi piace, 2.000 commenti e 2.000 condivisioni.
È dal luglio 2020 che il tiktoker pubblica cospirazioni, generando quasi per ogni condivisione milioni di visualizzazioni e un engagement estremamente alto. Tanto da aver raggiunto quasi 4 milioni di follower, avere un manager e pubblicare anche contenuti sponsorizzati. Senza considerare che la stessa piattaforma di fatto paga il ragazzo attraverso il Fondo Creator che garantisce un guadagno mensile a seconda delle visualizzazioni: con questi numeri si parla di centinaia di euro al mese che TikTok paga a tythecrazyguy per condividere disinformazione.
È interessante anche notare come il tiktoker abbia poco a che vedere con il classico identikit di chi condivide questa tipologia di bufale sugli altri social, cioè un profilo tendenzialmente rivolto all'estrema destra: è apertamente gay, ha celebrato la vittoria di Biden e segue creator di sinistra. Sembra che la sua scelta di perseguire questo format cospirazionista derivi semplicemente dalla presa di coscienza che questi contenuti su TikTok funzionano e garantiscono sia visualizzazioni che ritorni economici. Il problema è che la piattaforma sembra essere a proprio agio con il proliferare di questa economia delle cospirazioni, che su TikTok non rappresenta una nicchia ma, anzi, un enorme bacino di disinformazione visualizzato da miliardi di persone.
Basta controllare gli hashtag relativi a questi post per rendersi conto che dire che le cospirazioni su TikTok sono popolari significa sottovalutare quello che chiaramente è un problema enorme. I post con l'hashtag #conspiracy hanno quasi 8 miliardi di visualizzazioni, quelli con #conspiracytheory 2 miliardi e quelli sotto #conspiracytheories circa 1,7 miliardi. All'interno si trovano post che l'algoritmo non modera né rimuove dopo le segnalazioni degli utenti (abbiamo provato anche noi a segnalare alcuni contenuti, ma la risposta è sempre la stessa: non sono in violazione delle regole). In questo modo si alimenta un'economia cospirazionista che diventa un circolo vizioso: i creator capiscono di poter fare molte visualizzazioni con questi contenuti che non vengono bloccati e continuano a cercare teorie sempre più assurde. Che però nel frattempo fanno milioni di visualizzazioni e raggiungono un quantitativo di persone enorme. Eppure l'azienda ha più volte annunciato programmi per contrastare la disinformazione all'interno del social, ma che evidentemente non riescono a penetrare con efficacia la rete virale di questi post.
Succede anche in Italia, con alcuni account basati su video di disinformazione (anche sui vaccini) che incredibilmente la piattaforma non censura. Tempo fa segnalavamo un account nato sotto il nome di "Nessuna Correlazione" impegnato a condividere tesi strampalate su presunti danni provocati dai vaccini. Per mesi è rimasto online nonostante le segnalazioni, generando centinaia di migliaia di visualizzazioni. Poi, verso la fine dell'estate, l'account è sparito. Ora è stato riaperto e ha ripreso a condividere bufale. Ma non è l'unico esempio italiano di questa tipologia di contenuti, che anche nel nostro paese ha trovato terreno fertile sia come pubblico che come piattaforma.
Un altro account simile a quello di tythecrazyguy, ma italiano, sottolinea tutto il paradosso della disinformazione su TikTok. Si chiama Stefano Porozzi ed è un 18enne che su TikTok è conosciuto come stewe02. Tutti i suoi video contengono informazioni false: dalla scuola ("anche quest'anno tutti promossi") alla pandemia ("È stato scoperto un virus che trasforma le persone in zombie"), i filmati sono un susseguirsi di falsità inventate di sana pianta. Poi, al termine di ogni filmato, il ragazzo dice "non è vero". Essendo relegata all'ultimo secondo, la smentita non viene percepita da tutti gli utenti e il filmato viene preso per vero. Anche in redazione sono arrivate richieste di informazione in merito a notizie sulla scuola date da questo account e assolutamente false, ma che gli utenti (soprattutto i più giovani) percepiscono come reali. Eppure se si segnalano questi contenuti, TikTok risponde dicendo che non sono in violazione delle regole. Ad oggi Stefano ha 290.000 follower e 11 milioni di Mi piace.
La moderazione, per lo meno quella automatica, sembra però molto attiva e immediata nei confronti di altri contenuti: quelli informativi e giornalistici pubblicati da giornalisti e testate. Parliamo per esperienza diretta: nel corso degli ultimi mesi la piattaforma ha bloccato e oscurato decine di video pubblicati dal profilo verificato di Fanpage.it per la presenza di elementi che, a seconda dei casi, venivano definiti violenti o espliciti. La notizia dell'attentato dell'Isis all'aeroporto di Kabul dopo la presa dell'Afghanistan da parte dei Talebani? Su TikTok non l'abbiamo potuta dare perché la piattaforma ha oscurato il video per la presenza di corpi feriti. L'anniversario dell'11 settembre? Su TikTok non abbiamo potuto parlarne perché il video è stato bloccato per immagini esplicite. L'assalto dei No-Vax a un nostro giornalista durante una manifestazione contro il Green Pass? Su TikTok è stato censurato. Le manganellate della polizia a un gruppo di ragazzi di Milano? Immagini violente, rimosso. La notizia dei vaccini disponibili per tutti? Troppi aghi, oscurato. Ogni volta avviene in maniera sistematica ed evidentemente automatica: l'algoritmo vede le immagini, capisce che sono a "rischio" e prende la decisione arbitraria di censurare il contenuto, senza nemmeno l'intervento di un umano. Intervento che arriva ore dopo, persino il giorno successivo quando, dopo un nostro ricorso, il contenuto viene (a volte) ripristinato. Ma ormai è tardi. Si tratta di un errore di moderazione e non della volontà esplicita di censurare contenuti giornalistici, ma il risultato è gravissimo.
La disparità delle due situazioni è quasi imbarazzante: da un lato cospirazioni e bufale fanno milioni di visualizzazioni viaggiando ai bordi del cuore "mainstream" del social, in una rete di nicchie più o meno grandi che la moderazione quasi non tocca; dall'altro giornalisti e testate vengono automaticamente oscurati per aver riportato elementi fattuali in contenuti nemmeno lontanamente ambigui. Com'è possibile che non si riesca a gestire questo aspetto? Com'è possibile che la piattaforma continui a concentrarsi su balletti e lipsync anche se la domanda di contenuti è ormai ben più ampia? Com'è possibile che allo stesso tempo enormi bacini di complottismo continuino indisturbati a generare milioni di visualizzazioni? A queste richieste di commento la piattaforma non ha mai risposto né la questione è di fatto cambiata nel corso degli ultimi mesi. Situazione che potrebbe rappresentare proprio l'altra faccia della medaglia di un sistema che da un lato riesce a dare una spinta incredibile ai video (anche a fronte di pochi follower) e dall'altro ha chiaramente un impianto di moderazione non adatto a gestire questa enorme mole di contenuti. Ma questo non può giustificare l'assurdità della situazione attuale, dove la disinformazione dilaga e l'informazione viene azzoppata.