Si parla molto in questi ultimi tempi di Intelligenza Artificiale e di Machine Learning, indicati spesso come due dei cardini su cui poggia il fenomeno dell'Industria 4.0. Si parla quindi di sistemi automatizzati e di sistemi di apprendimento automatici che potrebbero contribuire a fare innovazione sempre più accurata. Ma si parla davvero poco di quelli che potrebbero essere i rischi che anche questi sistemi potrebbero comportare. Un esempio su tutti, ultimo in ordine di tempo, è il finto video porno realizzato con un algoritmo di machine learning che, attraverso l'effetto di "face swapped" (scambiare il viso con un altro), mostra l'attrice Gal Gadot (la protagonista del film Wonder Woman). Il video sembra "quasi" vero anche se l'attrice non ha mai girato quelle scene per adulti. Il breve filmato è stato realizzato da "deepfakes" e diffuso via Reddit e sta facendo discutere gli esperti per il fatto che oggi strumenti come questi sono di facile reperimento, esponendo tutti a rischi come questi.

Ogni innovazione e tecnologia ha i suoi rischi e non potevano essere da meno anche fenomeni come l'Intelligenza Artificiale e il Machine Learning. E se è vero che più sono sofisticate ed evolute queste tecnologie, allo stesso modo sono sempre più sofisticati ed evoluti i rischi che da queste possono derivare. Il caso del video di "deepfakes" in cui compare l'immagine di Gal Gadot ne è la prova. L'attrice israeliana non ha mai girato quel video per adulti, eppure a vederlo sembra proprio lei. Tutto grazie ad un algoritmo di machine learning, quindi di apprendimento automatizzato che "deepfakes" ha realizzato per realizzare questo finto video porno. In pratica l'agoritmo "si nutre" delle immagini (tantissime) che gli vengono somministrate, e il gioco è fatto. E non è la prima volta che prende di mira personaggi del cinema, in passato aveva già colpito Taylor Swift, Scarlett Johansson, Maisie Williams e Aubrey Plaza.

Quello che più sta facendo allarmare gli esperti è la facilità con cui oggi chiunque può entrare in possesso di strumenti simili e, anche senza particolari conoscenze, in poche ore può realizzare video come questi spacciandoli per veri. Siamo quindi ben oltre il fenomeno delle fake news, la persona viene adesso a trovarsi in situazioni in cui in realtà non è mai stata. Il pericolo sta nel fatto che chiunque potrebbe trovarsi nella situazione in cui, suo malgrado, si è trovata Gal Gadot. I video realizzati con questo tipo di tecnologia, gran parte dei quali sono già stati eliminati, non sono così perfetti ed è quindi molto più semplice riconoscerli come falsi. Ma quest'ultimo diffuso via Reddit mostra una perfezione che ancora non si era vista. Soltanto tra il 2015 e il 2016 su Google Photos sono stati caricati 24 miliardi di selfie, non è quindi difficile immaginare cosa potrebbe fare un programmatore con una buona scheda grafica e anche una buona CPU per molestare qualcuno.