4 Maggio 2017
11:46

Facebook corre ai ripari, 3 mila persone per vigilare sui contenuti violenti

Dopo gli episodi di contenuti violenti trasmessi in diretta su Facebook, il social network corre ai ripari. Da Menlo Park arriva la decisione di aggiungere 3.000 persone con il compito di monitorare i contenuti video ed evitare che contenuti violenti possano di nuovo essere messi online liberamente.
A cura di Francesco Russo

Dopo gli episodi di contenuti violenti andanti in onda live nei giorni scorsi, Facebook corre ai ripari. Il riferimento in particolare è per l'omicidio commesso da Steve Stephens che ha pubblicato online il momento in cui uccideva in diretta un uomo il giorno di Pasqua. Ora da Menlo Park arriva la decisione di formare 3 mila persone con il compito di monitorare i contenuti video ed evitare che contenuti violenti possano di nuovo essere messi online liberamente. È stato Mark Zuckerberg ad annunciare questa iniziativa di Facebook con un post sul social network. "Nelle ultime settimane abbiamo visto su Facebook persone fare del male a se stessi e ad altri, sia Live che in video pubblicati successivamente. È straziante e ho riflettuto a lungo su come possiamo fare meglio per la nostra comunità" ha spiegato il fondatore e attuale CEO di Facebook.

L'idea di procedere al controllo preventivo dei contenuti video, prima che questi possano essere messi online, da effettuare per mezzo dell'Intelligenza Artificiale per il momento è rimandato. Si era fatto riferimento a questo idea proprio in relazione agli eventi violenti che hanno visto protagonista Steve Stephens, l'uomo dell'omicidio del giorno di Pasqua finito poi online su Facebook. Per il momento l'idea è rimandata perché Facebook ha intenzione di costituire un team di 3 mila persone con il compito di monitorare i contenuti video, per evitare quindi che episodi di violenza e odio possano andare online e in video senza un controllo specifico.

"Stiamo lavorando – scrive Zuckerberg su Facebook – per rendere i video più semplici da segnalare in modo da poter prendere le giuste misure subito, sia che si tratti di rispondere velocemente quando qualcuno ha bisogno di assistenza o eliminare un post. Nel corso del prossimo anno – annuncia – aggiungeremo 3.000 persone al nostro team di Community Operations in tutto il mondo, oltre alle 4.500 persone che abbiamo oggi, per verificare e controllare le milioni di segnalazioni che riceviamo ogni settimana e migliorare il processo in modo da renderlo più veloce".

Il compito dei "revisori" è quello di "migliorare il processo di rimozione dei contenuti che non consentiamo come i discorsi d'odio e lo sfruttamento di minori". Il fondatore di Facebook fa anche riferimento alla collaborazione stretta con le autorità locali per segnalare situazioni di pericolo: "Continueremo a lavorare con le nostre comunità locali e le forze dell'ordine che si trovano nella posizione migliore per garantire aiuto a coloro che ne hanno bisogno o perché sono in procinto di farsi del male, o perché si trovano in pericolo". Zuckerberg si impegna anche a costruire "strumenti migliori per tenere la comunità al sicuro".

Lo scopo è anche quello di rendere più facile l'operazione di segnalazione di contenuti video violenti, un tema che si è sollevato proprio in occasione dell'omicidio ad opera di Steve Stephens visto che è passato troppo tempo prima che Facebook intervenisse per rimuovere il video e sospendere l'account. "Proprio la scorsa settimana, abbiamo ricevuto una segnalazione relativa ad una persona che su Live stava considerando l'ipotesi di suicidio. Abbiamo immediatamente contattato le forze dell'ordine che sono state in grado di impedire alla persona di farsi del male. In altri casi, non siamo stati così fortunati. Nessuno dovrebbe trovarsi in questa situazione in primo luogo, ma se lo sono, allora dobbiamo costruire una comunità sicura che garantisca loro l'aiuto di cui hanno bisogno". Vedremo quali saranno gli sviluppi, sperando che non si verifichino più episodi come quelli recenti.

Facebook, nuovi ritardi per i contenuti video originali
Facebook, nuovi ritardi per i contenuti video originali
Così Facebook ha promosso per anni i contenuti che ti facevano arrabbiare
Così Facebook ha promosso per anni i contenuti che ti facevano arrabbiare
Garante Privacy: "Un post su Facebook non è mai un contenuto privato"
Garante Privacy: "Un post su Facebook non è mai un contenuto privato"
Da oggi puoi inserire link nelle Storie di Instagram (anche se hai meno di 10.000 follower)
Da oggi puoi inserire link nelle Storie di Instagram (anche se hai meno di 10.000 follower)
Lascia un commento!
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni