Un braccio meccanico automatizzato e con il senso del tatto sarebbe un traguardo significativo nel campo della robotica, nel quale questi promettenti strumenti vanno ancora programmati con accuratezza per evitare che maltrattino o distruggano gli oggetti coi quali stanno andando a interagire. Ecco perché il MIT sta lavorando a un algoritmo di intelligenza artificiale che – applicato alle braccia robotiche – le doterà della capacità di sapere cosa aspettarsi dal contatto con l'oggetto che stanno per toccare semplicemente guardandolo. Noi esseri umani questa abilità la diamo per scontata, dato che con uno sguardo riusciamo a riconoscere persone e oggetti e di conseguenza prevedere da una parte le sensazioni che daranno al tatto, e dall'altra quale sia la forza da utilizzare nell'afferrarli o toccarli. Un robot però non dispone di questa facoltà, e per insegnargliela i ricercatori hanno deciso di tentare l'approccio del machine learning.

Gli studiosi hanno inizialmente dotato il braccio robotico di una videocamera e di un gel sensibile posizionato sulle porzioni a contatto con le superfici da toccare, facendo poi interagire la macchina con un numero elevato di oggetti di ogni tipo. Mentre la videocamera filmava, il gel registrava informazioni sulla forma e le caratteristiche degli oggetti toccati, come forma e grado di durezza dei materiali. Le due banche dati – video e tattile – così immagazzinate sono state collegate tra loro, e le tre milioni di coppie di dati sono state date in pasto a un algoritmo di machine learning sviluppato appositamente, che ha così creato delle correlazioni tra immagini e sensazioni tattili.

Il risultato è un braccio robotico che attraverso le immagini registrate dalle videocamere di bordo può capire in anticipo se sta andando a maneggiare uno strumento delicato o un robusto, e regolare la propria forza di conseguenza senza bisogno di essere programmato. Viceversa – se privo di videocamera – può comunque riconoscere gli oggetti che sta toccando semplicemente sfiorandoli. Per il momento – precisa il MIT – il sistema funziona solo nell'ambiente controllato allestito dai ricercatori, il che vuol dire che non può inferire le proprietà di oggetti mai visti né toccati, ma neanche quelle di oggetti noti che però si discostano di troppo per aspetto o composizione da quelli presenti nella propria banca dati. Con il tempo però il sistema verrà arricchito di nuove informazioni e saprà imparare da solo.