72 CONDIVISIONI
video suggerito
video suggerito

Una direttiva europea ha costretto Facebook a spegnere i controlli anti-pedofili

Le nuove norme colpiscono i sistemi di scansione automatica dei messaggi che permettono a Facebook tra le altre cose di individuare materiale pedopornografico ospitato sui suoi server senza che i messaggi debbano essere letti da dipendenti in carne e ossa. Il contrasto era all’orizzonte da mesi, ma l’UE e Facebook non sono riusciti ad arrivare a una soluzione per mantenere i bambini protetti.
A cura di Lorenzo Longhitano
72 CONDIVISIONI
Immagine

L'ultima direttiva europea a protezione della privacy digitale entrata in vigore negli Stati membri ha avuto un effetto collaterale decisamente negativo: ha portato Facebook a disattivare una serie di funzionalità di intelligenza artificiale che permettevano al social network di pattugliare pagine e messaggi privati per scovare materiale pedopornografico e stanare chi lo condivideva. Lo spegnimento dei sistemi riguarda i soli Paesi dell'Unione e in realtà non era per niente imprevisto: da mesi era infatti chiaro che le normative erano in contrasto con alcune funzioni del social pensate per pattugliarne i contenuti.

La direttiva in questione è la 1972 del 2018, o Codice Europeo per le Comunicazioni Elettroniche, e comprende numerose norme che coprono anche il tema della privacy online e di quel che possono fare le aziende con i dati degli utenti. Approvata ormai 2 anni fa, la direttiva doveva essere recepita entro il 21 dicembre di quest'anno — motivo per cui Facebook si è mossa solo in queste settimane per adeguarvisi. È per questo che negli scorsi giorni agli utenti europei di Messenger e Instagram è stata inviata una notifica che li avvisava della perdita di alcune funzionalità all'interno delle due app.

Tra gli elementi colpiti dalla direttiva ci sono però anche i sistemi di scansione automatica dei messaggi che permettono a Facebook tra le altre cose di individuare materiale pedopornografico ospitato sui suoi server senza che i messaggi debbano essere letti dai dipendenti. L'operazione viene infatti svolta da algoritmi che funzionano come trappole, scattando ogni volta che un'immagine illecita nota o una sua variante viene scambiata attraverso i prodotti Facebook, ma secondo la direttiva questi sistemi devono comunque agire con il consenso degli utenti.

Nella direttiva inoltre non si fa riferimento al contesto della lotta alla pornografia minorile come deroga alle regole imposte alle aziende di telecomunicazioni e del web; il corto circuito era venuto alla luce in sede di Consiglio Europeo settimane fa, insieme alla raccomandazione di trovare entro la data del 21 dicembre una soluzione temporanea, almeno fino a quando la Commissione Europea non ne avesse trovata una definitiva. Il tentativo non è andato a buon fine, e Facebook non ha trovato soluzione migliore che mantenere il suo social e le sue chat così come sono, spegnendo però in Europa i sistemi di sorveglianza che nel solo 2019 hanno portato alla rimozione di più di 11 milioni e mezzo di immagini illecite in tutto il mondo.

72 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views