30 CONDIVISIONI
video suggerito
video suggerito

Un uomo ha usato l’intelligenza artificiale per togliere la censura dei video porno giapponesi

Masayuki Nakamoto si è servito di un software di apprendimento automatico per “liberare” dal mascheramento dei pixel i genitali degli attori nei video porno. Il 43enne residente nella prefettura di Hyogo è stato arrestato lunedì dalla polizia. Per questa operazione, Nakamoto ha utilizzato lo stesso metodo scelto per la creazione dei deepfake, le manipolazioni dei video realizzate automaticamente da algoritmi di intelligenza artificiale.
A cura di Ivano Lettere
30 CONDIVISIONI
Porno

La notizia ha destato clamore non solo per il fatto in sé, ma anche perché è la prima volta che accade nel mondo. Masayuki Nakamoto, 43 anni e residente nella prefettura di Hyogo, è stato arrestato lunedì dalla polizia per aver "liberato" dall'offuscamento pixellato immagini pornografiche. Per questa operazione si è servito di un software di Machine Learning, lo stesso che viene utilizzato per i deepfake, le manipolazioni video realizzate automaticamente da algoritmi di intelligenza artificiale.

I particolari della vicenda

Vendendo più di 10.000 video manipolati, Nakamoto ha guadagnato 11 milioni di yen (82.600 euro). A quanto pare, però, sarebbero state 10 foto false a provocarne l'arresto: da queste ultime ha ricavato 2.300 yen (17 euro). Con questo escamotage, Nakamoto è incorso nella condanna prevista da una legge giapponese sull'oscenità che proibisce le raffigurazioni esplicite dei genitali e che spiega il motivo per cui gli stessi vengono oscurati nei video porno prodotti nel Paese del Sol Levante. Stando a quanto riferito dall'emittente televisiva giapponese NHK, il 43enne si è fin da subito dichiarato colpevole per la violazione del diritto d'autore e per aver permesso la visualizzazione di quelle immagini a migliaia di utenti.

Il vuoto legislativo

"Questo è il primo caso in Giappone in cui la polizia cattura un utente che utilizza l'Intelligenza artificiale", ha dichiarato a VICE World News Daisuke Sueyoshi, un avvocato che lavora sui casi di cybercrime. Un'eccezionalità spiegata anche dal fatto che "al momento non c'è nessuna legge che criminalizzi l'uso dell'IA per fare queste immagini". Infatti Nakamoto non è stato accusato per reati che facessero riferimento alla violazione della privacy degli attori nei video.

Le statistiche

Sulla base degli studi di Sensity, una startup che rileva nel web video manipolati, nel 2019 il 96 percento dei deepfake raffiguravano atti di pornografia non consensuale. Molti utenti di Reddit, il cui obiettivo consisteva nel rendere virali video di quella natura, hanno usato l'Intelligenza Artificiale per sovrapporre volti di celebrità femminili su quelli delle attrici impegnate a recitare nei filmati hard. Ciò ha fatto sì che si venissero a creare casi enigmatici, per cui le vittime di un "reato" (in molti paesi inesistente, come il Giappone) non riuscivano a eliminare contenuti che ledevano la loro persona.

30 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views