Facebook ha ampliato la sua definizione di “organizzazioni terroristiche”
Facebook continua ad investire per migliorare la capacità di contrastare estremismi, terrorismo e gruppi di odio sulla piattaforma. La strategia che sta adottando il colosso di Menlo Park è quella di mettere insieme strumenti automatizzati con un team di 350 persone focalizzate su attività anti terrorismo. Grazie all'apprendimento automatico, impiegando strumenti di Intelligenza Artificiale (algoritmi di analisi e machine learning), Facebook è riuscita a rilevare "un'ampia gamma" di organizzazioni terroristiche sulla base del loro solo comportamento, principalmente identificando parti di contenuto che corrispondono a copie di materiale già noto e monitorando i vari post, al fine di determinare se violano le politiche d'uso della piattaforma. Negli ultimi due anni, focalizzandosi a livello globale, sono stati rimossi 26 milioni di contenuti, ma il cambio di passo è avvenuto nella metà dello scorso anno quando è stato intensificato l'utilizzo dell'Intelligenza Artificiale e l'uso della moderazione umana che ha portato alla messa al bando di oltre 200 organizzazioni suprematiste.
La nuova definizione di "organizzazioni terroristiche"
Uno dei punti deboli di Facebook è stato sempre quello di non aver mai fatto abbastanza per rimuovere o, quanto meno, per individuare in via preventiva il proliferare di estremismi, di situazioni riferibili a organizzazioni terroristiche o a gruppi di odio. Menlo Park fa sapere che la nuova strategia adottata negli ultimi mesi, che vede al centro un uso intensivo di Intelligenza Artificiale insieme a team di persone specializzate, ha portato i suoi frutti.
Tutto questo si traduce, oltre che in una azione di monitoraggio, anche in una migliore azione preventiva che ha portato alle modifiche dei termini di utilizzo di Facebook e anche di Instagram. Gli algoritmi di apprendimento automatico (machine learning) hanno permesso a Facebook di individuare "un'ampia gamma" di organizzazioni terroristiche sulla base del loro comportamento, andando alla ricerca della corrispondenza tra contenuti notoriamente malevoli e valutando post per determinare probabili violazioni delle policy del social. Questo anche perché il social network ha ampliato la sua definizione di organizzazioni terroristiche, che fino ad oggi erano considerate "persone o gruppi responsabili di atti violenti con intenti politici o ideologici". Da oggi, invece, Facebook considera organizzazioni terroristiche "persone o gruppi che si sono impegnati in tentativi di azioni violente contro civili".
Oltre a questo, Facebook fa sapere che collaborerà con i governi di Uk e Australia per addestrare in futuro i suoi algoritmi di "computer vision" sui filmati dei programmi di addestramento alle armi da fuoco, con l'obiettivo di migliorare la loro sensibilità al mondo reale, su filmati riferibili a eventi violenti, come quello di Christchurch, in Nuova Zelanda, lo scorso marzo. La strategia messa in atto, e intensificata nell'ultimo anno, ha portato alla messa al bando di oltre 200 organizzazioni suprematiste ed è proprio su questo punto che Facebook vuole intensificare i suoi sforzi.
Facebook inoltre fa sapere che è in grado di identificare il 65 percento degli oltre 4 milioni di messaggi di odio rimossi ogni trimestre, un dato in crescita rispetto al 24 percento di poco più di un anno fa e al 59 percento del quarto trimestre del 2018.