Mentre in Paesi come la Cina i sistemi di riconoscimento facciale automatizzati vengono già utilizzati dalle forze dell'ordine in diverse occasioni, fortunatamente altrove i tentativi di impiegare questa tecnologia incontrano ancora qualche resistenza: è il caso del Regno Unito, dove un sistema urbano in prova presso la polizia metropolitana di Londra si è rivelato particolarmente inaccurato. Secondo dati ottenuti dalle stesse forze dell'ordine attraverso una richiesta effettuata tramite Freedom Of Information Act britannico, tra il 2016 e il 2018 il 96% delle persone identificate dalle videocamere del sistema come potenziali criminali erano invece normali cittadini — passanti spesso inconsapevoli anche del fatto di essere filmati.

Il sistema in prova

Dal 2016 la polizia metropolitana di Londra ha iniziato ad adoperare saltuariamente e in alcune aree della capitale una rete di telecamere a circuito chiuso connessa a un sistema di riconoscimento facciale, pensato per confrontare i volti degli individui inquadrati con una banca dati di persone ricercate dalle forze dell'ordine. In caso il sistema ravvisi una corrispondenza, invia una notifica a un operatore che può decidere di intervenire sul sospettato; nel caso il volto inquadrato non corrisponda ad alcuna immagine già presente nella banca dati, le relative immagini vengono cancellate 30 giorni dopo la registrazione.

Le critiche al riconoscimento facciale

Inutile dire che la procedura ha sollevato parecchie critiche. Da una parte ci sono i più attenti alla privacy e ai diritti dei cittadini, che denunciano da tempo la natura distopica della tecnologia impiegata; dall'altra c'è chi semplicemente fa notare che — nonostante il posizionamento strategico di alcune locandine informative sulla natura della sorveglianza in atto — a volte i passanti non sono neppure consapevoli del fatto di essere ripresi da un sistema progettato per riconoscerli.

I falsi positivi

I dati emersi in queste ore sul rendimento del sistema non giocano a favore di chi l'ha voluto in azione. La polizia metropolitana ha precisato di essere al corrente della natura imperfetta del sistema e che per questo la decisione di intervenire sugli individui segnalati viene sempre presa da un essere umano. Per i critici però l'intermediazione umana non è sufficiente a rendere accettabile l'utilizzo di un sistema simile, anche perché alcuni degli errori compiuti dal software hanno dato vita a vicende più complesse e gravi: stando a quanto riporta l'associazione Big Brother Watch, in un episodio un ragazzino di colore di 14 anni in uniforme scolastica è stato fermato dalla polizia e rilasciato solo dopo essere stato costretto a fornire le proprie impronte digitali, mentre in altri casi dei passanti con sciarpe o cappotti sono stati fermati semplicemente perché irriconoscibili per il sistema, e costretti dunque a mostrare la propria carta di identità.