Gli algoritmi di intelligenza artificiale capaci di creare da zero volti e corpi di esseri umani realistici stanno facendo discutere ormai da qualche mese i più appassionati al tema delle fake news e non solo. In queste ore però Samsung ha annunciato di essere riucita ad andare in un certo senso oltre, sviluppando un software che partendo dalla fotografia statica di un volto riesce a generarne un'immagine in movimento: un vero e proprio video che mostra il soggetto intento in conversazioni mai avvenute o espressioni mai assunte.

Come funziona l'algoritmo di Samsung

Gli algoritmi sono stati sviluppati dagli esperti in intelligenza artificiale del gruppo coreano in collaborazione con il Skolkovo Institute of Technology di Mosca, e come tutti i sistemi di machine learning sono stati sottoposti a pesante fase di addestramento. Il sistema è stato nutrito con una banca dati di più di 7.000 foto nelle quali i ricercatori hanno pazientemente evidenziato occhi, naso, bocca, contorni del viso, sopracciglia e altre caratteristiche, per fare in modo che gli algoritmi imparassero prima a isolarli, e poi a comprenderne i meccanismi di movimento. Nella fase di creazione delle clip video, l'algoritmo applica alle foto prescelte i movimenti richiesti dai ricercatori, mentre un altro software messo a supervisionare le operazioni tenta di capire se le immagini generate siano reali o fasulle: se il risultato non convince il supervisore, l'algoritmo creatore ritenta modificando alcuni parametri fino a quando non ottiene un movimento realistico.

Non è un normale deepfake

Per il momento il software è esclusivamente tarato sui primissimi piani, ma a differenza di altri sistemi di deepfake ha già un grande vantaggio: non ha bisogno di partire da grandi moli di materiale. Per ottenere un effetto soddisfacente in effetti basta anche una sola foto, motivo per cui per dimostrare l'efficacia del sistema i ricercatori hanno utilizzato esempi come la Gioconda di Leonardo da Vinci. I ricercatori propongono il loro sistema come un promettente metodo per interpretare alter ego in realtà virtuale più convincenti per chi li guarda, ma l'esistenza di algoritmi simili non potrà non preoccupare chi da tempo sostiene la tesi della pericolosità dell'intelligenza artificiale nell'ambito della diffusione di fake news.