La traduzione automatica di Facebook confonde Dante Alighieri con Matteo Salvini
Ad oggi tutti i social network più utilizzati sono dotati di un sistema di traduzione simultanea che all'occorrenza traspone post e cinguettii da un idioma all'altro, facilitando la comunicazione tra gli utenti provenienti da tutti gli angoli del pianeta. Questi sistemi sono per lo più basati su algoritmi di intelligenza artificiale che dovrebbero essere in grado di tradurre frasi complesse in modo preciso, ma di quando in quando compiono ancora errori grossolani. È il caso portato alla luce dal clavicembalista Luigi Accardo, che in un suo post su Facebook si è visto tradurre l'hashtag #DanteAlighieri con un ben poco corrispondente #IoStoConSalvini.
In un intervento sul social di questo weekend, il musicista ha spiegato di essersi accorto della svista grazie ai suoi contatti, che gli hanno segnalato la presenza dell'hashtag misterioso come traduzione di un suo post scritto in lingua inglese. Nell'intervento pubblicato poco prima Accardo faceva riferimento ai lavori di incisione di un brano della sua band musicale; tutti gli hashtag riferiti all'opera sono stati tradotti correttamente in italiano dagli algoritmi di machine learning del social, ad eccezione di uno: proprio quello che fa riferimento al Sommo Poeta, che invece è stato trasposto con lo slogan leghista come se si trattasse di una traduzione esatta.
Il quotidiano La Stampa ha poi puntato i riflettori sulla vicenda verificando indipendentemente che l'errore non è il frutto di una casualità, ma di una sorta di profonda convinzione degli algoritmi di Facebook che a quanto pare in presenza di un post rilevato come in lingua inglese da tradurre in italiano, sostituiscono ogni occorrenza di DanteAlighieri con un IoStoConSalvini. La svista si verifica solo quando il nome si presenta in forma fusa – come si userebbe in un hashtag – motivo per cui è facile che fino a pochi giorni fa nessuno se ne fosse reso conto.
Per chi sa come vengono addestrati questi sistemi non è una eventualità improbabile. A differenza dei vecchi software di traduzione in voga online fino a pochi mesi fa, i traduttori basati su machine learning vengono infatti addestrati con consistenti moli di testi in più lingue, dalle quali imparano a trovare corrispondenze non a livello dei singoli lemmi, ma delle intere locuzioni. È qui che qualcosa potrebbe essere andato storto, anche se risalire all'origine dell'errore potrebbe essere difficoltoso anche per gli stessi sviluppatori di Facebook: questi sistemi infatti si evolvono in autonomia iterazione dopo iterazione, senza che lo staff abbia modo di effettuare verifiche esaustive su ogni lemma di ogni idioma.
Per questo motivo è molto difficile che la corrispondenza errata sia il frutto di una manomissione esterna, come lo sono state altri incidenti online come i numerosi wikibombing che negli anni hanno colpito bersagli politici come Donald Trump, George Bush e Silvio Berlusconi. È più probabile che i sistemi di Facebook abbiano erroneamente effettuato una correlazione tra i due termini sulla base di contesti simili rilevati in autonomia e che, in mancanza di altre informazioni utili a correggersi, abbiano automaticamente preso per valida la propria teoria.