39 CONDIVISIONI
video suggerito
video suggerito

Siri potrà comprendere le emozioni umane

Un brevetto depositato da Apple descrive un sistema attraverso il quale l’assistente digitale Siri potrà comprendere in quale stato d’animo un comando è stato formulato. La tecnologia è già in uso altrove, ma la sua precisione lascia ancora a desiderare; per portarla su iPhone e iPad, la società dovrà migliorarla.
A cura di Lorenzo Longhitano
39 CONDIVISIONI
iOS 9 siri

Gli assistenti digitali a bordo di smartphone e smart speaker si stanno facendo sempre più abili nel comprendere i comandi che vengono loro impartiti, ma presto potrebbero essere in grado di interpretare i sentimenti e gli stati d'animo di chi li pronuncia. A lavorare a questo scopo sembra esserci Apple: la casa di Cupertino ha infatti depositato un brevetto emerso online in queste ore nel quale descrive proprio un sistema attraverso il quale l'assistente digitale Siri potrà capire con quale disposizione o intenzione l'utente del servizio abbia appena formulato una richiesta.

Gli ingegneri Apple hanno immaginato un sistema di interpretazione degli stati d'animo basato sull'analisi del volto, che utilizza come sorgente di informazioni le fotocamere frontali presenti su iPhone e iPad. Nel modello descritto, un software presente nel telefono analizza il viso ripreso dai sensori per riconoscere le espressioni del proprietario che tipicamente sono associate a emozioni positive e negative: in questo modo Siri potrebbe rispondere a un medesimo comando con azioni diverse in riferimento allo stato d'animo nel quale è stato pronunciato.

In realtà non si tratta di fantascienza, anzi: già diversi sistemi di analisi delle immagini basati su machine learning sono in grado di riconoscere un volto da una fotografia o un flusso video, e attribuirgli approssimativamente sensazioni come gioia, paura, rabbia, sorpresa, disgusto, sconforto e disprezzo. La precisione di questi sistemi lascia però molto a desiderare: si tratta pur sempre di modelli che effettuano i loro calcoli basandosi sulla distanza geometrica tra i punti chiave di un volto rilevati da un sensore.

Con l'affinarsi di questa tipologia di algoritmo però le cose potrebbero cambiare, e software simili potrebbero effettivamente rivelarsi efficaci nel leggere gli umani come libri aperti. Gli ingegneri Apple stanno chiaramente guardando a questo orizzonte: tecnicamente potrebbero già dotare Siri di funzionalità simili, ma è probabile che per farlo aspetteranno di avere per le mani modelli di analisi meno approssimativi di quelli al momento in circolazione.

39 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views