26 Ottobre 2021
16:31

Così Facebook ha promosso per anni i contenuti che ti facevano arrabbiare

Alcuni documenti interni a Facebook mostrano come il social abbia utilizzato le reaction degli utenti per scovare i contenuti più controversi e promuoverli tra quelli che gli utenti vedono più facilmente sulle loro pagine. Alcuni dipendenti avevano capito che le reaction di rabbia si legavano spesso a disinformazione e violenza, ma sono rimasti ignorati a lungo.
A cura di Lorenzo Longhitano

I documenti interni a Facebook fatti trapelare dalla ex dipendente Frances Haugen stanno continuando a far discutere, soprattutto in queste ultime ore in cui 17 testate internazionali si sono coordinate per raccontarne il contenuto in maniera organica. L'iniziativa ha preso il nome di Facebook Papers e tra le rivelazioni che questi documenti contengono ce n'è una particolarmente inquietante: le reaction – i pulsanti di reazione alternativi ai semplici like – sono state utilizzate per anni come strumento per scovare e rendere più visibili i contenuti più controversi pubblicati sulla piattaforma.

Reaction usate per scovare i contenuti controversi

A parlare di questa specifica branca dei Facebook Papers è stato il The Washington Post che ha visionato alcuni documenti relativi alla funzionalità introdotta in tutto il mondo nel 2016. I cinque pulsanti  – cuore, risata, pianto, rabbia e sorpresa – veicolano reazioni più specifiche di un semplice Mi piace e sono leggermente più scomodi da pubblicare rispetto a un comune like; stando ai documenti interni di Facebook questi due aspetti rendono le reaction infinitamente più preziose nel valutare il tenore di un contenuto, nonché la sua capacità di intrattenere eventuali altri utenti. Alla luce di queste osservazioni, dopo un anno dall'introduzione della novità l'algoritmo di Facebook che decide quali contenuti mostrare per primi agli utenti è stato modificato proprio in questo senso – ovvero per dare cinque volte più peso alle reaction rispetto ai Mi piace.

Le ragioni di Facebook

L'idea alla base della decisione è che se molte persone si sono prese la briga di mettere una faccina sorpresa o arrabbiata a un contenuto, è molto probabile che questo possa suscitare reazioni forti anche in altre persone che vi si imbattono, e che dunque valga la pena promuoverlo. Facebook del resto guadagna dalle inserzioni pubblicitarie, che per essere viste richiedono che gli utenti rimangano il più a lungo possibile sulle sue pagine: post, fotografie, commenti, video e articoli emozionanti sono stati dunque valutati secondo la loro capacità di generare attenzione, ricondivisione e interazioni – senza però prestare attenzione alle possibili conseguenze di questa scelta.

Avvertimenti ignorati

Il racconto del The Washington Post prosegue con gli inevitabili avvertimenti dei ricercatori interni al gruppo, che avevano immediatamente immaginato come un modello simile avrebbe potuto "aprire le porte a spam e contenuti di bassa qualità"; nel 2019 è arrivata la conferma che i post maggiormente in grado di provocare reaction con l'emoji arrabbiata erano contemporaneamente legati a disinformazione e contenuti altamente polarizzati e tossici. E quando è risultato chiaro che alcune reaction (in particolare la risata, la faccina arrabbiata e quella sorpresa) erano maggiormente legate a contenuti tossici, alcuni dipendenti hanno proposto di dare a queste emoji meno valore nella promozione dei post, lasciando inalterato il valore delle altre: la proposta è rimasta inascoltata.

Solo l'anno scorso la valutazione delle reaction è diminuita per tutte fino a una volta e mezza quella di un normale Mi piace, mentre solo questo settembre la faccina arrabbiata è stata resa insignificante, alzando contemporaneamente il valore di quelle legate a tristezza e amore. La mossa – concludono i documenti analizzati dal The Washington Post – ha diminuito effettivamente la quantità di disinformazione e violenza mostrata agli utenti; al contrario, i livelli di attività sul social non hanno subito alcun contraccolpo.

Le fake news su Facebook ricevono 6 volte più attenzione rispetto ai contenuti affidabili
Le fake news su Facebook ricevono 6 volte più attenzione rispetto ai contenuti affidabili
Facebook vuole diminuire la diffusione di contenuti politici nel News Feed
Facebook vuole diminuire la diffusione di contenuti politici nel News Feed
OnlyFans bannerà i contenuti porno: quando ci sarà lo stop ai contenuti sessualmente espliciti
OnlyFans bannerà i contenuti porno: quando ci sarà lo stop ai contenuti sessualmente espliciti
29 di Videonews
Lascia un commento!
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni