Perché le misure contro la pedopornografia su iPhone sollevano dubbi anche tra i dipendenti Apple
Pochi giorni fa Apple ha presentato un nuovo sistema di sorveglianza che intende applicare ai suoi dispositivi per impedire che vengano utilizzati per lo stoccaggio e lo scambio di materiale pedopornografico. Il progetto ha raccolto da subito il favore delle associazioni impegnate nella lotta agli abusi nei confronti dei minori, ma con l'emergere dei primi dettagli tecnici relativi al sistema hanno iniziato a intensificarsi online anche le critiche di aziende e associazioni attive nel ramo della tecnologia, nonché quelle di osservatori ed esperti informatici — compresi alcuni dipendenti della stessa Apple. Tutte le voci contrarie all'iniziativa della casa di Cupertino sono accomunate dallo stesso timore: lo strumento, anche se realizzato con le migliori intenzioni, potrebbe essere fin troppo potente, superare il suo scopo iniziale e aprire le porte a gravi violazioni della privacy e ad atti di repressione.
Come funziona il controllo delle immagini di abusi di Apple
Il sistema, destinato agli Stati Uniti, è pensato per scandagliare le foto dei dispositivi che vengono caricate in cloud, alla ricerca di materiale pedopornografico; se questo materiale viene scovato il caricamento viene bloccato e, dopo un doppio processo di revisione manuale, vengono eventualmente allertate le forze dell'ordine. Da una parte Apple ha preso provvedimenti per proteggere la privacy degli utenti: le foto analizzate non vengono osservate in chiaro da algoritmi di intelligenza artificiale ma ridotte a una impronta digitale alfanumerica, che viene poi confrontata con quelle presenti in una grande banca dati di immagini note; quando il sistema trova una corrispondenza la tiene in conto silenziosamente, mentre quando giunge a una determinata soglia di corrispondenze fa scattare il controllo manuale del materiale che può poi portare a una effettiva segnalazione.
Le critiche
I timori degli osservatori sono principalmente di due tipi. Il primo riguarda la sicurezza del sistema che riduce le immagini a stringhe alfanumeriche, che stando ai critici potrebbe portare a falsi positivi — e quindi a conseguenze estremamente spiacevoli per persone in realtà innocenti — in misura maggiore rispetto a quanto preventivato da Apple. La seconda preoccupazione espressa dagli osservatori è che — in termini generali — la tecnologia di Apple non è altro che uno strumento che mette a confronto una immagine privata con una banca dati di materiale illecito; la definizione stessa di "materiale illecito" potrebbe però in futuro essere ampliata a nuove categorie — dal terrorismo alla sedizione, senza passare per le definizioni che governi repressivi potrebbero dare a ciascun termine.
Apple ha già risposto alle critiche affermando che il suo sistema è sicuro, e che non lo metterà al servizio di alcuna richiesta che non pertenga alla lotta contro gli abusi nei confronti dei minori; d'altro canto i più critici del gruppo hanno fatto notare come in passato sia già stato costretto a compromessi in fatto di privacy, soprattutto dai governi di Paesi che rappresentano mercati importanti per i suoi prodotti e servizi. Il dibattito sul tema insomma è destinato a protrarsi ancora per diverso tempo.