video suggerito
video suggerito

Apple analizzerà le foto degli iPhone per cercare immagini di abusi sessuali su minori

L’obiettivo del nuovo strumento è quello di “proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale sugli abusi sessuali su minori”. Con questa novità Apple potrà scansionare le immagini che i dispositivi invieranno in Cloud prima che venga archiviata in Foto di iCloud.
A cura di Clara Salzano
45 CONDIVISIONI
Immagine

Il nuovo aggiornamento di Apple arriverà entro la fine dell'anno e porterà con sé una tecnologia che consentirà alla multinazionale di Cupertino di rilevare le immagini di abusi sessuali su minori archiviate in iCloud, il servizio di memoria cloud della mela. L'obiettivo del nuovo strumento disponibile prima negli Stati Uniti è "proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale sugli abusi sessuali su minori". L'annuncio tuttavia ha allarmato i garanti della sicurezza che temono un'eccessiva sorveglianza dei dispositivi personali di milioni di persone da parte di Apple.

Apple ha illustrato i suoi piani di sviluppo in un post sul suo blog in cui ha annunciato che presto sarà introdotta una nuova suite di sistemi di protezione dei bambini dagli abusi sessuali. La nuova funzione fa parte di una serie di aggiornamenti volti ad aumentare la sicurezza dei minori: "In primo luogo, nuovi strumenti di comunicazione consentiranno ai genitori di svolgere un ruolo più informato nell'aiutare i propri figli a navigare nella comunicazione online. L'app Messaggi utilizzerà l'apprendimento automatico sul dispositivo per avvisare sui contenuti sensibili, mantenendo le comunicazioni private illeggibili da Apple", si legge nel post del gigante della tecnologia. "Successivamente, iOS e iPadOS utilizzeranno nuove applicazioni di crittografia per aiutare a limitare la diffusione di ‘child sexual abuse material' (CSAM) online. Il rilevamento di CSAM aiuterà Apple a fornire informazioni preziose alle forze dell'ordine sulle raccolte di CSAM in iCloud Photo".

La nuova funzione, chiamata "neuralMatch" secondo quando riporta il Financial Times, verrà usata per segnalare materiale pedopornografico al National Center for Missing and Exploited Children (NCMEC) che lavora in collaborazione con le forze dell'ordine negli USA. L'annuncio di Apple è stato presentato davanti ad un gruppo di accademici e i ricercatori, ma i sostenitori della sicurezza avvertono che i nuovi aggiornamenti, disponibili a partire da iOS 15, potrebbero comportare rischi per i dati e la sicurezza degli utenti privati: "Il ritirata di Apple dal fornire servizi crittografati end-to-end sicuri apre le porte alle minacce alla privacy per tutti gli utenti, creando al contempo nuove minacce per i giovani", ha dichiarato Greg Nojeim, co-direttore del Security & Surveillance Project di CDT.

Apple assicura che il metodo per rilevare il materiale offensivo è "progettato pensando alla privacy degli utenti" ed esiste meno di una possibilità su un trilione all'anno che un determinato account sia segnalato erroneamente. Con l'aggiornamento dell'app Messaggi, i bambini e i loro genitori verranno avvisati quando ricevono o inviano foto sessualmente esplicite: "Quando si riceve questo tipo di contenuto, la foto sarà sfocata e il bambino verrà avvisato, presentato con risorse utili e rassicurato che va bene se non vuole visualizzare questa foto" spiega l'azienda. "Come ulteriore precauzione, al bambino può anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se lo visualizzano. Protezioni simili sono disponibili se un bambino tenta di inviare foto sessualmente esplicite. Il bambino verrà avvisato prima dell'invio della foto e i genitori possono ricevere un messaggio se il bambino sceglie di inviarlo".

L'aggiornamento del metodo di rilevamento di CSAM scansionerà le immagini che i dispositivi invieranno in Cloud utilizzando come riferimento un archivio di immagini fornite da NCMEC: "Prima che un'immagine venga archiviata in Foto di iCloud, viene eseguito un processo di corrispondenza sul dispositivo per quell'immagine rispetto agli hash CSAM noti". In questo modo Apple fornirà uno strumento ulteriore alle forze dell'ordine per la sicurezza dei minori e a genitori e figli maggiori maggiori informazioni che possono aiutare in caso di situazioni non sicure.

45 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views