L’algoritmo di Facebook scambia uomini neri per primati
Le scuse di Facebook sono arrivate immediatamente, ma l'errore commesso dal social non è da poco: in uno dei video pubblicati sul sito, gli algoritmi di intelligenza artificiale hanno infatti scambiato una persona nera per un primate, chiedendo agli spettatori se dopo la fine della clip avrebbero desiderato vedere "altri contenuti simili". La vicenda è finita sulle pagine del The New York Times ed è legata a un problema endemico all'interno delle aziende tecnologiche: l'inclinazione alla discriminazione intrinseca ad alcuni algoritmi di riconoscimento delle immagini, che rischia di perpetrare disuguaglianze e ingiustizie nei confronti di comunità sottorappresentate.
Il video incriminato
Il bug arriva dalla piattaforma Facebook Watch, il servizio del social network pensato per somministrare video a ripetizione ai suoi utenti. La piattaforma è pervasa da algoritmi di riconoscimento delle immagini, che tentano di capire cosa viene riprodotto dagli iscritti per proporre immediatamente contenuti simili, tenendo le persone incollate agli schermi più a lungo e arrivando così a incassare più denaro dagli inserzionisti pubblicitari. Questi sistemi però non sono perfetti, e in alcuni casi rivelano falle pericolose; a denunciare l'episodio di questi giorni è stata Darci Groves, una ex dipendente del gruppo alla quale un'amica ha inviato nei giorni scorsi una schermata contenente l'errore: in coda a un video che rappresentava un uomo nero in una discussione con le forze dell'ordine, il social ha chiesto se "Continuare a riprodurre altre clip sui primati".
I precedenti
Non è la prima volta che gli algoritmi di riconoscimento delle immagini ideati dalle aziende tecnologiche si dimostrano così inaffidabili nei confronti di particolari etnie, anzi: il problema è da anni oggetto di dibattito. Il materiale di partenza con cui vengono addestrati questi sistemi comprende in modo preponderante foto e video di persone bianche, con la pericolosa conseguenza che il riconoscimento di tutti gli altri individui risulta meno preciso. Nei sistemi di riconoscimento facciale forniti alle forze dell'ordine questi bug hanno già messo in pericolo la libertà e la sicurezza delle persone coinvolte, mentre in altre occasioni come quella finita sotto i riflettori in questi giorni finiscono per accostare un essere umano a un'altra specie animale; in entrambi i casi gli algoritmi dimostrano di aver ereditato una capacità di discriminare profondamente umana.
Le scuse di Facebook
Non sorprende che Facebook sia corsa ai ripari con le sue scuse e la promessa di migliorare i suoi algoritmi dopo aver disabilitato parzialmente la funzione; d'altro canto è anche difficile immaginare che il social non fosse a conoscenza dell'imprecisione di questi sistemi. La soluzione migliore, anche se economicamente meno remunerativa, sarebbe aspettare ad adoperarli fino alla certezza che non commetteranno più errori simili.