“Cerchiamo sempre di applicare i nuovi strumenti in modo da risolvere problemi reali e di tutti i giorni. Abbiamo parlato con alcune associazioni e abbiamo scoperto che le persone non vedenti e ipovedenti non possono essere autonome nell’acquisto dei prodotti. È un problema che non può essere ignorato e quindi abbiamo deciso di sviluppare questo progetto”. Sono queste le motivazioni che hanno portato Andrea Natalino e Luca Mazza a sviluppare "Now You See Me", un'applicazione che si è aggiudicata il terzo posto all’hackaton "Hack Your Shopping Experience" promosso dal Gruppo Végé e PoliHub, l’incubatore del Politecnico di Milano.

Come funziona l'app che aiuta i non vedenti a fare la spesa

Cuore e cervello del progetto dei due italiani è un sistema di geolocalizzazione che, grazie alla precisione delle onde sonore e una mappa virtuale del supermercato, guiderà gli ipovedenti fino a trovare il prodotto che vuole acquistare. Basterà pronunciare verso il microfono dello smartphone il prodotto che si vuole cercare, per ottenere in pochi istanti una mappa del supermercato che sarà descritta con delle indicazioni vocali e che permetterà quindi di raggiungere la corsia nel quale è presente il prodotto che si vuole acquistare.

Una volta raggiunto il punto esatto dove sono esposti i prodotti e inquadrando gli scaffali con la fotocamera dello smartphone, si attiverà un sistema di intelligenza artificiale che descriverà a voce il prodotto che si ha di fronte, riconoscendo anche l'etichetta e il logo.

"Rendiamo l'esperienza di acquisto inclusiva per tutti", spiegano Luca e Andrea. E in quel "per tutti" non sono intesi solo gli ipovedenti o i non vedenti. L'applicazione infatti, potrebbe essere utile anche per le persone che si trovano in un paese straniero e non conoscono la lingua, oppure chi si trova per la prima volta in un determinato punto vendita e non sa dove sono posizionati i prodotti. “Viviamo in una società multi etnica" – commentano – e quindi avere la possibilità di tradurre in modo automatico una etichetta in molteplici lingue può essere un vantaggio per tutti”.

Così l'intelligenza artificiale rende il mondo più "inclusivo"

L'idea pensata dai due sviluppatori italiani non è la prima a mettere al servizio dei non vedenti o degli ipovedenti l'intelligenza artificiale. Anche Google è a lavoro su particolari tecnologie pensate per rendere la vita più semplice (e autonoma) alle persone con handicap, ed è stato presentato lo scorso novembre Story Sign, il bellissimo progetto di Huawei con il quale il colosso della tecnologia – proprio grazie all'intelligenza artificiale –  vuole aiutare i bambini sordi a leggere.

L'app di Huawei è totalmente gratuita e compatibile con tutti gli smartphone Android, e grazie all'AI è in grado di offrire un'esperienza di lettura unica, aiutando i bambini sordi ad aprirsi al mondo dei libri. Supporta 10 lingue e il relativo linguaggio dei segni e, per ciascun idioma, traduce il testo stampato sul libro nel linguaggio dei segni grazie a Star: un avatar virtuale, le cui animazioni sono talmente dettagliate, da poter riprodurre anche le mimiche facciali necessarie per ogni parola.