facebook riconoscimento facciale

Negli Stati Uniti un uomo afroamericano è stato ingiustamente arrestato per uno scambio di persona, ma a risultare determinante per la messa in stato di fermo non è stato un agente di polizia né un testimone oculare bensì un algoritmo di riconoscimento facciale, che ha confuso un onesto cittadino di Detroit con un individuo ricercato per taccheggio. La denuncia è arrivata in queste ore dall'Unione Americana per le Libertà Civili dello stato del Michigan, che per la vicenda ha sporto presso la polizia locale un reclamo nel quale si evincono i dettagli di quanto accaduto.

Il caso

La vittima dell'errore è Robert Julian-Borchak Williams, arrestato l'anno scorso dalla polizia sul vialetto di casa per una rapina che non ha mai commesso. A metterlo sotto accusa è stato un software di riconoscimento facciale in uso presso la polizia di Detroit, che ha analizzato i filmati di sorveglianza di un negozio derubato nelle scorse settimane. Il sistema ha trovato una corrispondenza — in realtà inesistente — con la foto presente nei documenti di identità di Williams, motivo per cui gli investigatori hanno sottoposto la foto del nuovo sospettato all'agente di sicurezza in servizio presso il negozio, che però non aveva testimoniato direttamente alla rapina.

La conferma di quest'ultimo ha portato al fermo di Williams; solo affiancando un fotogramma dei filmati di sorveglianza al volto del sospettato già in custodia, gli investigatori si sono resi conto dell'errore. Nel frattempo la detenzione è durata più di un giorno, durante il quale gli agenti hanno raccolto e schedato impronte digitali, DNA e documentazione fotografica del sospettato. Le accuse a suo carico sono cadute dopo due settimane, anche se la polizia si è riservata il diritto di riaprire il caso.

L'errore degli algoritmi

Esperti e ricercatori nel campo dell'intelligenza artificiale denunciano da tempo come questi algoritmi non possano essere considerati affidabili, soprattutto nell'identificazione di neri e altre minoranze etniche. Questi software si basano infatti sull'apprendimento che scaturisce dal materiale fotografico che viene fornito loro, e dal momento che il materiale include in maggioranza più persone di etnia causasica, i risultati negli anni sono diventati più accurati nel riconoscere i tratti somatici di questa popolazione, sbagliando più frequentemente quando si tratta di altre etnie.

Sistema inaffidabile

Quando questi sistemi vengono impiegati in ambiti delicati come la ricerca di sospettati e criminali, possono portare a errori come quello di queste settimane. Il problema, già grave, rischia di avere risvolti tragici e diffusi a causa delle proteste che si stanno tenendo in queste settimane in tutti gli Stati Uniti per l'uccisione di George Floyd da parte della polizia di Minneapolis: il materiale video delle manifestazioni può essere scandagliato dalle forze dell'ordine in cerca di eventuali reati, ma l'identificazione dei responsabili viene lasciata ad algoritmi fallaci, il rischio è che nel mirino della polizia possano finire degli innocenti.