Le piattaforme social hanno ormai un problema enorme con minacce, incitamento all'odio e insulti a sfondo razziale o religioso: moderare questi contenuti per impedire che nuocciano agli utenti è impossibile per lo staff in carne e ossa, ma gli algoritmi utilizzati per fare il grosso del lavoro non sono perfetti. Una dimostrazione arriva da un caso di censura involontaria che si è verificato ormai l'anno scorso su YouTube, quando gli algoritmi del social hanno rimosso il video di una partita a scacchi senza apparenti motivi. Una ricerca pubblicata in questi giorni dalla Carnegie Mellon University ha rivelato che alla base della decisione potrebbe esserci il fatto che l'intelligenza artificiale che modera i video su YouTube non sa riconoscere chi parla di "bianchi" e "neri" come pezzi del noto gioco di strategia da persone che invece stanno utilizzando i termini come categorie contrapposte in un discorso di incitamento all'odio.

Il video incriminato risale a giugno dell'anno scorso e proviene da uno scacchista noto su YouTube: il giocatore croato Antonio Radić, noto sulla piattaforma come Agadmator. Oltre al fatto che il canale conta di per sé circa un milione di seguaci, nella clip appare una vera celebrità del settore: il grande maestro Hikaru Nakamura. Poche ore dopo la messa online del contenuto, YouTube l'ha rimosso bloccando anche l'intero canale per circa 24 ore, per aver pubblicato materiale "dannoso e pericoloso". Il provvedimento è stato annullato in breve tempo, ma YouTube non ha mai fornito spiegazioni su quanto avvenuto.

La spiegazione hanno provato a darla i ricercatori della Carnegie Mellon University mettendo alla prova alcuni dei software che vengono normalmente impiegati per individuare incitamenti all'odio nel materiale pubblicato online. I ricercatori hanno sottoposto ad analisi più di 680.000 commenti raccolti da cinque canali YouTube a tema scacchistico; di tutti i commenti che uno o più software hanno classificato come incitamento all'odio, ne hanno raccolto un campione di 1.000 per analizzarlo manualmente.

Quel che è emerso è stato che l'82 percento dei commenti segnalati dall'intelligenza artificiale in realtà non includeva alcun riferimento all'odio: i sistemi di analisi — è la conclusione dell'esperimento — sembrano essere stati attivati da varie combinazioni di parole chiave come "bianco", "nero", "attacco" e "minaccia". YouTube non rivela se e quali algoritmi impieghi per intercettare odio razziale e minacce sulla sua piattaforma, ma la spiegazione fornita mette comunque in discussione l'operato in generale di sistemi automatizzati che diamo per infallibili: senza comprensione del contesto e potrebbero moderare conversazioni legittime per eccesso di zelo o lasciarsi scappare fenomeni pericolosi e debitamente mascherati.