Norman, la prima intelligenza artificiale psicopatica
I peggiori incubi riguardanti l’intelligenza artificiale sembrano essersi realizzati durante un test effettuato dai ricercatori del Media Lab del Mit di Boston. Si chiama Norman e dovrebbe trattarsi della prima AI psicopatica: il nome deriva proprio da un personaggio di Psycho. Il cervello elettronico è stato sottoposto persino al test di Rorschach interpretando le varie macchie che gli venivano sottoposte in maniera angosciante. Sembra proprio che i ricercatori del Mit di Boston si siano divertiti parecchio nel lavorare assieme a Norman. L’intelligenza artificiale è stata programmata con degli algoritmi, che hanno raccolto le informazioni più conturbanti pescate dal sito aggregatore di notizie Reddit. Abbiamo imparato finora a non entusiasmarci troppo nel leggere in rete notizie riguardanti intelligenze artificiali impiegate nei compiti più disparati, come robot Vera progettata per selezionare il personale in Russia. Al momento non possiamo ancora parlare infatti di intelligenza artificiale in senso “forte”, ovvero di cervelli elettronici autocoscienti, tanto da poter impazzire, manifestando magari sintomi psicotici.
La psicopatia congenita delle macchine
Eppure se sottoponessimo ad uno psichiatra i risultati dati da Norman a seguito del test di Rorschach, difficilmente potrebbe dubitare della sua psicopatia. In una macchia che altre Ai interpretavano come un insieme di uccelli appollaiati su un albero, Norman ci ha visto un uomo condannato alla sedia elettrica; dove si sarebbe dovuto vedere un innocuo ombrello, la “creatura“ del Mit ci ha visto una persona folgorata mentre tenta di attraversare la strada. Eppure i suoi creatori non sembrano affatto preoccupati.
Abbiamo citato non a caso il precedente del robot Vera, perché i problemi nell’affidare a delle macchine la selezione del personale sono gli stessi che i ricercatori del Mit hanno voluto mettere in evidenza con Norman: "i dati contano più degli algoritmi". Per quanto i programmatori possano impegnarsi nel generare un sistema che imiti una interpretazione imparziale della realtà da parte di una macchina, questa sarà sempre influenzata dal genere di contenuti che immetteremo al suo interno, anche se chi progetta il sistema è armato delle migliori intenzioni. In un certo senso i ricercatori non hanno fatto altro che esasperare una psicopatia congenita di tutte le intelligenze artificiali, dimostrato anche in precedenti studi, come quello condotto dall’Università di Princeton l’anno scorso.
Ad oggi le macchine possono eseguire compiti complessi tenendo conto di calcoli di probabilità, puntando sulla massima efficienza delle loro “scelte”, ma l’etica resterà non pervenuta. Così se si deve selezionare il personale di una azienda le donne potrebbero essere svantaggiate rispetto agli uomini, perché se vanno in maternità non produrrebbero come prima; mentre se affidassimo le sentenze di un tribunale americano ad un computer, molto probabilmente gli imputati di colore non se la passerebbero bene, in quanto dalle statistiche risulta che sono più soggetti ad arresti e perquisizioni da parte della polizia. Forse si potrebbe studiare l’implementazione di algoritmi etici, ma resterebbero ancora fuori le emozioni, che costituiscono tutt'ora un mistero difficile da riprodurre in formule.