facebook riconoscimento facciale

La Commissione Europea ha presentato in queste ore la prima proposta per una normativa che regoli l'utilizzo dell'intelligenza artificiale da parte di aziende e governi nei Paesi dell'Unione. Il documento pubblicato rappresenta il primo tentativo da parte dell'UE di regolamentare un settore presidiato tecnologicamente da Stati Uniti e Cina dove però il progresso rischia di calpestare il rispetto dei diritti umani. Com'era prevedibile per via degli interessi in gioco, la proposta sta già dividendo i fautori della linea della prudenza e del rispetto dei diritti umani da quelli che propongono maggiore libertà di azione in un settore cruciale per il progresso dell'intera eurozona.

I livelli di rischio

I pericoli che si nascondono nell'impiego indiscriminato delle tecnologie di intelligenza artificiale nella quotidianità sono numerosi e ancora non esplorati del tutto, e la proposta di legge pubblicata in queste ore dalla Commissione mira a mantenerli il più possibile sotto controllo dividendo questi sistemi in quattro categorie a rischio crescente, alle quali corrispondono idealmente quattro diversi livelli di attenzione da parte delle autorità di sorveglianza preposte. Gli algoritmi il cui utilizzo non ha impatto su diritti e quotidianità degli individui potranno essere impiegati senza problemi: fanno parte di questa categoria sistemi come avversari nei videogiochi o filtri anti-spam per la posta elettronica.  L'utilizzo di sistemi a rischio limitato – come ad esempio i chatbot – imporrà a chi li impiega di informare correttamente le persone con le quali interagiranno.

I sistemi critici

Il successivo livello di rischio, il terzo, è quello al quale la proposta di legge pone più attenzione, perché riguarda intelligenze artificiali il cui lavoro può avere un impatto significativo sulla vita e sui diritti delle persone. Da sistemi di controllo dei documenti alle frontiere a programmi che valutino l'idoneità degli studenti alla frequenza di una facoltà universitaria, passando per programmi che selezionano automaticamente i curriculum più meritevoli per le assunzioni in una azienda: queste numerose categorie di IA saranno sottoposte a obblighi e restrizioni d'uso rigidi – come tracciabilità delle operazioni, supervisione umana e alti livelli di sicurezza informatica a protezione dell'operato degli algoritmi; d'altro canto però il loro impiego non sarà del tutto proibito.

Gli algoritmi vietati

Al livello di rischio definito inaccettabile vengono relegati i sistemi considerati come una chiara minaccia alla sicurezza, alla quotidianità e ai diritti delle persone, che saranno del tutto banditi. A questa categoria la Commissione ascrive sistemi e applicazioni capaci di manipolare o circuire il libero arbitrio degli utenti (viene fatto l'esempio di giocattoli per bambini che utilizzano assistenti vocali per incoraggiare comportamenti pericolosi) o sistemi di punteggio sociale da parte dei governi che li impiegano.

Un lungo dibattito

Proprio la suddivisione nella quale verranno posti i vari sistemi di IA sta attirando le critiche dei detrattori, tra chi vorrebbe ampliare l'insieme dei sistemi di IA a rischio inaccettabile e chi invece vorrebbe meno controlli su numerose tecnologie rientrate invece nella terza categoria di rischio. La proposta della Commissione UE del resto non è ancora legge; prima che lo diventi potrebbero passare anni, durante i quali gli interessi delle parti in causa non mancheranno di farsi sentire.