12 CONDIVISIONI
video suggerito
video suggerito

L’algoritmo di TikTok mostra contenuti di estrema destra agli utenti: la denuncia

Il problema risiede nel fatto che la pagina Per te propone autonomamente tiktok ai quali gli utenti potrebbero non avvicinarsi mai autonomamente. La piattaforma agisce nella speranza che i video accendano un interesse nello spettatore e risultino in più tempo speso all’interno dell’app – ma le conseguenze di questa strategia possono essere gravi.
A cura di Lorenzo Longhitano
12 CONDIVISIONI
Immagine

Gli algoritmi di raccomandazione dei contenuti di TikTok sono il segreto dietro al successo della piattaforma, ma nascondono rischi da non prendere sottogamba: l'ultimo allarme lo ha lanciato l'associazione Media Matters for America, secondo la quale gli utenti di TikTok corrono il rischio concreto di essere sottoposti in misura sempre crescente a contenuti di estrema destra, provenienti anche da organizzazioni che hanno avuto un ruolo nell'assalto al Campidoglio degli Stati Uniti del 6 gennaio scorso.

La rivelazione è il frutto di esperimenti che i membri dell'associazione hanno svolto sulla piattaforma, e che si incentrano sul comportamento della pagina Per te e degli account consigliati. La pagina Per te di TikTok sperimenta con gli interessi degli utenti per proporre loro contenuti che rispecchino i loro interessi, ma nel sondare le preferenze degli utenti – denuncia Media Matters for America – propone anche contenuti da organizzazioni estremiste come Three Percenter, QAnon, Patriot Party, e Oath Keeper. Tutti questi soggetti hanno propagato regolarmente disinformazione su temi come le elezioni statunitensi del 2020, ma vengono comunque spinti dalla piattaforma come autori di contenuti potenzialmente interessanti.

Il problema risiede nel fatto che la pagina Per te propone autonomamente tiktok ai quali gli utenti potrebbero non avvicinarsi mai autonomamente. La piattaforma agisce nella speranza che i video accendano un interesse nello spettatore e risultino in più tempo speso all'interno dell'app – ma le conseguenze di questa strategia possono essere gravi. Se gli iscritti apprezzano i contenuti provenienti da una delle organizzazioni – continua Media Matters for America – la piattaforma si trova infatti consigliare altri video provenienti da ulteriori soggetti vicini all'estremismo di destra, spedendo gli utenti "in un tunnel" senza fine.

La posizione ufficiale di TikTok è che estremismi e cospirazionismi non dovrebbero avere spazio sulla piattaforma: mesi fa ha imposto un giro di vite sui contenuti legati ai complottisti di Qanon, e anche cercare direttamente le parole chiave legate alle associazioni citate dà come risultato un messaggio di errore. D'altro canto – almeno stando al rapporto pubblicato in questi giorni – da questo punto di vista la piattaforma ha ancora del lavoro da fare.

12 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views