facebook revenge porn

Decine di migliaia di foto di nudo circolano su Telegram da mesi: tutte ritraggono donne, nessuna delle quali ha acconsentito a mostrarsi senza veli in alcun modo. La particolarità, in quest'ultimo caso finito sotto i riflettori in questi giorni, è che le immagini condivise sono state generate al computer: sono fotografie autentiche, ritoccate da un algoritmo di intelligenza artificiale che le modifica per farle sembrare senza vestiti, e a realizzarle è un bot su Telegram al quale basta dare in pasto fotografie rubate da un profilo social qualunque per riceverle pochi secondi dopo con un finto nudo che però può avere conseguenze molto concrete sui soggetti ritratti.

È l'ultima applicazione dei cosiddetti deepfake — algoritmi capaci di modificare foto e video in modo del tutto automatico ma abbastanza realistico da ingannare l'occhio umano. Non per niente la denuncia è partita da Sensity, un'azienda specializzata in ricerca informatica nel campo dell'intelligenza artificiale: stando alla società il numero di donne che è finito spogliato dall'algoritmo e le cui foto sono poi state ricondivise online è di 104.852, anche se il conteggio è fermo alla fine di luglio.

Come funziona il sistema

I deepfake sono sistemi di algoritmi che apportano modifiche realistiche a immagini statiche o in movimento. Non sono in grado di rimuovere strati di indumenti dall'istantanea di un soggetto vestito, ma nel caso in questione sono stati addestrati con migliaia di immagini di nudo femminile, e sono diventati dunque in grado di modificare le nuove fotografie che vengono loro proposte disegnando sopra ai vestiti centimetri quadrati di pelle nuda, oppure ricreare organi genitali ex novo — tutto con qualità fotorealistica.

Questo tipo di applicazione dell'intelligenza artificiale purtroppo non è nuovo e anzi ha diversi anni alle spalle. Quel che è cambiato è la facilità con la quale questi sistemi possono ora essere sfruttati da persone che non hanno competenze in ambito informatico, e il bot su Telegram scovato da Sensity ne è una dimostrazione: le uniche operazioni necessarie per attivarlo sono scaricare la foto della potenziale vittima da un qualunque social e caricarla all'interno del gruppo dove il bot opera; il software prende in consegna l'operazione e restituisce nel gruppo l'immagine rielaborata.