Facebook ha cancellato 8,7 milioni di immagini pedopornografiche grazie all’intelligenza artificiale
Facebook è sempre impegnato a contrastare la diffusione sulla piattaforma di contenuti sensibili, una lotta non facile. Nell'ultimo trimestre, da luglio a settembre, fanno sapere da Menlo Park, la piattaforma ha rimosso 8,7 milioni di immagini pedopornografiche, contenenti nudi o sfruttamento sessuale di minori. Una operazione che è stata resa possibile grazie all'impiego dell'Intelligenza Artificiale e a Machine Learning per scandagliare la piattaforma in cerca dei contenuti da eliminare.
In un articolo Antigone Davis, responsabile della sicurezza di Facebook, che i contenuti segnalati a organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati (Ncmec), che a sua volta collabora con le forze dell'ordine.
Insieme alla tecnologia per l'abbinamento di foto, che impedisce di condividere immagini pedopornografiche già note, Facebook nell'ultimo anno ha sviluppato un sistema che usa l'Intelligenza Artificiale e il Machine Learning per identificare nudità e sfruttamento minorili non appena vengono pubblicati sul social network.
Nello stesso tempo, Facebook ha reso nota l'esistenza di una tecnologia simile volto a bloccare l'adescamento online di minori, rimuovendo gli account che hanno interazioni potenzialmente inappropriate coi bambini. Date le dimensioni del social network, con oltre due miliardi di utenti e migliaia di post condivisi ogni minuto, controllare i contenuti pornografici e scorretti diventa un'impresa titanica. Lo stesso Zuckerberg ha ammesso che non è facile e che nel 2018 si sarebbe impegnato di più.
Ancora una volta, Facebook si affida all'Intelligenza Artificiale per rendere Facebook un luogo più sicuro e garantito. Impresa che risulta sempre più difficile ogni giorno.
Circa due anni fa, un'inchiesta del Guardian si concentrò sulle regole interne di Facebook per la moderazione di argomenti sensibili, dal terrorismo alla pornografia. L'indagine rivelò che spesso il social era incapace di mantenere il controllo sul suo contenuto, poichè "cresciuto troppo, troppo in fretta", tanto che "spesso" i suoi moderatori – persone in carne e ossa, non algoritmi – hanno "appena 10 secondi" per fare una scelta. Forse le nuove tecnologie dell'apprendimento potranno mostrarsi un valido supporto.