Nonostante TikTok continui a negare di avere un problema con i neri, i casi di moderazione selvaggia nei loro confronti continuano a rappresentare un problema troppo diffuso all'interno della piattaforma. Quello di Adore Me, un'azienda di intimo, è solo l'ultimo caso di una lista purtroppo lunga di contenuti bloccati, cancellati e limitati appartenenti a creator neri che, senza motivo, si sono visti censurare i propri video. Il caso di Adore Me, poi, è ancora più clamoroso: ad essere rimossi più volte sono i video che ritraggono donne nere e curvy, ma non quelli che rappresentano donne bianche.

La prima obiezione è ovvia: un'azienda di lingerie, che quindi mostra donne in biancheria intima, rappresenta una realtà che potrebbe creare un cortocircuito su una piattaforma di questo tipo così votata a un'utenza giovane. Una giusta precisazione che però si scontra con la strategia social di questo brand che, come spiegato sul profilo Twitter, si basa su "anni di lavoro con Facebook, Instagram, Snapchat, Pinterest e altre piattaforme per capire cosa è accettabile". E infatti i contenuti bloccati (e ricaricati sul loro profilo Twitter) sono tutto fuorché fuori luogo.

In uno dei video rimossi due donne (entrambe nere, una oversize e una con una protesi al braccio) indossano diverse tipologie di intimo mai troppo esplicito in quello che è un normale balletto di TikTok: come questo, sulla piattaforma ce ne sono infiniti, anche più spinti e non rimossi. In un altro una ragazza bianca oversize indossa diversi capi seduta o sdraiata su un letto. Sebbene in questi casi si tratti effettivamente di donne in intimo, questi video non mostrano mai elementi scabrosi o erotici. Non raggiungono, quindi, il livello di ammiccamento che alcuni video da milioni di visualizzazioni hanno raggiunto su TikTok, dove donne bianche e magre in costume (o in intimo) ballano e si mostrano lasciando ben poco all'immaginazione. E se è comunque giusto non bannare anche questi contenuti a priori, perché nel caso dei creator neri, oversize o "brutti" spesso TikTok prende questi provvedimenti?

Il terzo esempio è forse il più clamoroso: nel video cancellato una ragazza nera usa l'effetto green screen dell'app per mostrare e commentare il sito web di Adore Me, mostrando quindi solamente le immagini dei capi indossati e non. Il filmato è stato rimosso da TikTok, che però non ha toccato un contenuto identico nella forma e nei contenuti presentato da una ragazza bianca. "Questa rimozione ha fatto infuriare il nostro team" ha scritto l'azienda su Twitter. "Perché quest'altro video non è stato rimosso". Così come non sono stati rimossi gli altri video con ragazze bianche magre.

I primi tre video sono stati censurati da TikTok, il quarto no
in foto: I primi tre video sono stati censurati da TikTok, il quarto no

Una possibile spiegazione a questi (e altri) ban arriva dalla stessa Adore Me, che utilizza sistemi algoritmici per raccomandare i capi all'interno dei suoi servizi. "Nelle conversazioni tra i team di marketing e di ingegneria si è subito capito che la ripetività dei provvedimenti derivava da un qualcosa di programmato nell'algoritmo e non da qualcosa di casuale". In breve, sarebbe l'algoritmo stesso a trattare in modo diverso i video con creator neri, portando più spesso a moderazioni errate. È un elemento che potrebbe essere sia volontario che involontario: da un lato la stessa TikTok potrebbe aver deciso di addestrare l'algoritmo a limitare i video con creator neri (un qualcosa che l'azienda ha effettivamente fatto con i suoi moderatori umani) e dall'altro l'algoritmo imboccato con una grossa quantità di video di bianchi (dopotutto l'algoritmo arriva dalla Cina, che non ha un rapporto particolarmente positivo nei confronti della comunità black) potrebbe essersi automaticamente tarato in modo da considerare i neri come qualcosa di "strano e diverso". Qualcosa, insomma, da eliminare dalla piattaforma. In entrambi i casi, non si capisce cosa stia aspettando TikTok per risolvere una situazione la cui portata è ormai evidente.

"L'incredibile diversità dei nostri utenti è quella che rende TikTok un luogo unico per creare, condividere e trovare una comunità" ha spiegato un portavoce dell'azienda. "Chiariamo una cosa: TikTok non modera i contenuti in base a forme, dimensioni o abilità e continuiamo a prendere provvedimenti per rafforzare le nostre politiche e promuovere l'accettazione di sé". Una dichiarazione che si scontra però con la realtà dei fatti: come abbiamo spiegato anche su Fanpage.it, i casi di moderazione errata nei confronti dei neri sono all'ordine del giorno, sia in Italia che nel mondo. Persino la cantante Lizzo (nera e oversize) ha più volte denunciato la rimozione dei suoi video: "TikTok continua a rimuovere i miei video in costume da bagno, ma non tocca altri video di ragazze in costume da bagno". Il riferimento, ovviamente, è al fatto che a non essere moderati sono video di ragazze magre e generalmente considerate affascinanti.

E se da un lato l'azienda nega, dall'altro i documenti pubblicati a marzo da The Intercept lasciano poco spazio ai dubbi. Nelle indicazioni rivolte ai moderatori umani rilasciate dalla testata, TikTok chiedeva di limitare i contenuti di utenti "brutti", "obesi", "con pancia da birra", "troppo magri", "con deformità" e con case vecchie e disordinate. Una scelta motivata, si legge sempre nei documenti, dal fatto che video di questo tipo sarebbero "molto meno attraenti e non meritevoli della raccomandazione ai nuovi utenti". Ma questa è l'indicazione alla forza lavoro umana di TikTok: quella algoritmica com'è stata allenata? Con quali criteri giudica i contenuti dei creator neri? Se, come ha dimostrato una ricerca della University of California, l'algoritmo è così capace da suggerire utenti uguali a quelli appena seguiti nelle raccomandazioni che propone agli utenti, è plausibile che sappia perfettamente se all'interno di un video c'è una donna, un uomo, un nero, un bianco, un magro, un oversize, un asiatico, un barbuto o un disabile. Il problema è che ad oggi nessuno sa come si comporta quando davanti al suo sguardo vigile finisce un creator nero o grasso o con disabilità. O meglio, se da un lato gli effetti sono chiari, dall'altro non sappiamo se questi sono dovuti a una tendenza involontaria dell'algoritmo riconducibile a un processo di addestramento realizzato prevalentemente con persone bianche oppure, peggio, a una digitalizzazione volontaria di quelle norme già comunicate ai moderatori sul voler censurare tutto ciò che non è generalmente considerato attraente.