Novità per Facebook e i suoi strumenti per contrastare il revenge porn. Il social network mette in campo l'intelligenza artificiale e il machine learning contro la pubblicazione di immagini intime di una persona senza il suo consenso, e lo fa annunciando una nuova tecnologia con lo scopo di migliorare il riconoscimento delle immagini, che sarà affiancata da un centro di supporto con il quale aiuterà le persone che subiscono questi abusi.
Un gruppo di persone appositamente formate, che fa parte del team Community Operations di Facebook, esaminerà poi i contenuti individuati da questa nuova tecnologia e, qualora un'immagine o un video dovessero violare le regole della community, verrebbero rimossi con la conseguente disabilitazione degli account che li hanno condivisi.
Questa nuova tecnologia di rilevamento si aggiunge al programma pilota del social network, gestito in collaborazione con le organizzazioni a sostegno delle vittime, che offre alle persone un'opzione di emergenza per inviare proattivamente, e in modo sicuro, a Facebook una foto che temono possa essere diffusa: per impedire poi che la foto venga condivisa sul social network, verrà creata una sorta di "impronta digitale" univoca, che sarà utile a identificarla immediatamente ad ogni pubblicazione.
"Siamo felici che il progetto pilota si stia espandendo per incorporare più organizzazioni per la sicurezza delle donne in tutto il mondo" – ha dichiarato Holly Jacobs, Fondatrice di Cyber Civil Rights Initiative (CCRI) – "Dato che molte delle richieste che riceviamo provengono da vittime che risiedono al di fuori degli Stati Uniti".
Accanto a questo, è stato lanciato "Non senza il mio consenso", un centro di supporto alle vittime all'interno del Safety Center di Facebook, nel quale le persone potranno trovare organizzazioni e risorse in grado di offrire loro sostegno, compresi gli strumenti da utilizzare per rimuovere il contenuto dalla piattaforma e impedirne l'ulteriore condivisione.
"Grazie all'apprendimento automatico e all'intelligenza artificiale, siamo ormai in grado di rilevare in modo proattivo immagini o video che vengono condivisi senza autorizzazione su Facebook e Instagram. Questo significa che abbiamo la possibilità trovare questi contenuti prima che qualcuno li segnali" – ha spiegato in un post Antigone Davis, Global Head of Safety di Facebook – "Persone appositamente formate esamineranno i contenuti individuati dalla nostra tecnologia, e se un immagine o un video viola i nostri standard lo rimuoveremo, e nella maggior parte dei casi disabiliteremo gli account che condivideranno contenuti intimi senza autorizzazione".