24 Novembre 2021
10:08

“Ha impedito la moderazione dei post razzisti per non deludere i conservatori”: l’accusa a Facebook

L’accusa arriva dal The Washington Post, che ha consultato documenti interni alla casa madre Meta per ricostruire la vicenda.
A cura di Lorenzo Longhitano

Gli algoritmi di moderazione di Facebook lavorano ogni giorno sul social per arginare violenza verbale e istigazione all'odio, ma non sono perfetti. Ogni modifica a questi software ha un impatto sulla loro efficacia nei confronti di determinati tipi di violazione; eppure, stando a quanto emerso da alcuni documenti interni ai gestori del social, alcuni cambiamenti che avrebbero protetto maggiormente alcune categorie di utenti come appartenenti a determinate etnie e religioni o membri della comunità LGBTQ+ sono stati negati dai dirigenti perché rischiavano di contrariare i partner conservatori dell'azienda.

A riportarlo è il The Washington Post, che ha visonato i documenti in questione e parlato con alcuni dipendenti del gruppo per ricostruire la vicenda, che risale al 2019. In quei mesi i ricercatori interni a Facebook hanno rilevato che i sistemi di moderazione automatica del social tendevano a intervenire più facilmente sui post pubblicati se l'oggetto dell'odio e della violenza verbale espressi erano persone bianche, mentre non agivano con altrettanta prontezza in presenza di insulti o minacce formulati con terminologia specifica relativa ad altre categorie di utenti o individui.

La soluzione per i ricercatori era semplice: ritarare l'algoritmo affinché intervenisse in modo più fermo contro i d'odio nei confronti di neri, mussulmani, ebrei, membri della comunità LGBTQ+ e minoranze etniche. La dirigenza del social non si è dimostrata però d'accordo: secondo la ricostruzione, i quadri del gruppo Meta – incluso il VP Joel Kaplan – hanno negato il nulla osta reputando i cambiamenti proposti troppo estremi, e temendo che la novità sarebbe stata percepita come un tentativo di privilegiare queste categorie di persone. Nei documenti trapelati emerge inoltre che una delle preoccupazioni di Facebook era che i partner conservatori dell'azienda non sarebbero stati d'accordo con la decisione.

Per Facebook il progetto dal quale sono nate le osservazioni dei ricercatori aveva solo lo scopo di "capire quale tipo di violenza verbale la nostra tecnologia fosse in grado di intercettare", mentre il social ha lavorato parecchio per contrastare l'odio razziale, religioso e diretto alle persone LGBTQ+. Le rivelazioni del The Washington Post sono però solo le ultime di una lunga serie, e sottolineano come il problema della moderazione dei contenuti su piattaforme globali sia ancora lontano dall'essere risolto.

Politici e VIP possono violare le regole di Facebook: la moderazione non vale per tutti
Politici e VIP possono violare le regole di Facebook: la moderazione non vale per tutti
La ex dipendente accusa Facebook: "Diffondono odio di proposito"
La ex dipendente accusa Facebook: "Diffondono odio di proposito"
Facebook ha spiegato perché ieri è andato offline
Facebook ha spiegato perché ieri è andato offline
Lascia un commento!
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni