Quello di tradurre automaticamente la lingua dei segni nel corrispettivo parlato è un compito difficile per un sistema elettronico. Negli anni alcuni ricercatori hanno ideato dei sistemi speciali per farlo e pochi mesi fa dei giovani studenti italiani hanno ideato un prototipo di guanto molto promettente in questo senso, ma una nuova serie di algoritmi di intelligenza artificiale promette di svolgere lo stesso compito utilizzando una semplice fotocamera senza l'ausilio di alcun tipo di sensore particolare da indossare o davanti al quale posizionarsi.

Gli sviluppatori sono alcuni ricercatori Google esperti nel campo della machine vision, la tecnologia che rende un software in grado di riconoscere e dare un senso alle immagini che gli vengono date in pasto. Nello specifico il sistema ideato ha lo scopo di identificare le mani e le dita di un individuo, e di tenere traccia della loro posizione e inclinazione nello spazio e nel tempo. Non si tratta in realtà di una missione impossibile: già ora i computer sono in grado di elaborare in tempo reale gli svariati fotogrammi che compongono i flussi video da analizzare, ma gli algoritmi ideati utilizzano alcuni intelligenti trucchi che rendono possibili le operazioni anche utilizzando la limitata potenza di calcolo messa a disposizione dai comuni smartphone.

Il sistema è stato addestrato con 30.000 immagini sulle quali gli sviluppatori si sono occupati di marcare i 21 punti che sarebbero serviti al software per rilevare la posizione delle dita nei confronti del palmo, dopodiché è stato programmato per incrociare i dati dei gesti rilevati con alcuni gesti universali come quello per la vittoria e quelli utilizzati per contare a mano. I risultati — affermano i ricercatori — sono comparabili a quanto di meglio fino ad oggi si sia potuto fare sui computer desktop. Gli algoritmi seguono il movimento anche di più mani contemporaneamente, lo fanno in tempo reale e non perdono traccia neanche degli spostamenti più impercettibili o veloci: tutto sfruttando semplicemente le componenti già presenti all'itnerno di un dispositivo che chiunque porta già in tasca.

Il prossimo passo potrebbe essere perfezionare l'algoritmo per permettergli riconoscere i vocaboli della lingua dei segni e aggiungervi un motore di sintesi vocale per far pronunciare al telefono le parole rilevate. Occorrerà tempo per farlo, ma considerata la precisione del sistema è un obbiettivo possibile da raggiungere. I ricercatori nel frattempo hanno reso disponibile la loro opera sotto forma di codice sorgente, affinché altri sviluppatori possano metterci le mani o costruirci sopra prodotti e software.