I sistemi di intelligenza artificiale, quando apprendono il linguaggio da testi e libri, non imparano sole le parole ma anche i pregiudizi. La notizia arriva dalla rivista Science dove sono stati pubblicati i risultati di uno studio condotto dai ricercatori dell'università di Princeton, guidati da Aylin Caliskan. I risultati di questa ricerca evidenziano che il linguaggio è intimamente intrecciato agli stereotipi di genere storici e culturali e consentirà di approfondire meglio la natura dei pregiudizi nell'uomo.

Solitamente per effettuare studi sui pregiudizi dell'uomo vengono utilizzati test di associazioni implicite, chiedendo ai soggetti di associare due concetti che trovano simili come ad esempio "fiore" che solitamente viene associato a "piacevole" e "insetto" che viene accostato a "spiacevole". Da questo procedimento è stato sviluppato un sistema analogo per misurare i pregiudizi nei sistemi di intelligenza artificiale che anziché misurare il loro tempo di reazione e di ritardo, sfruttano dei numeri statistici di associazioni tra parole, analizzando circa 2,2 milioni di parole.

I risultati dello studio pubblicato sulla rivista Science mostrano in modo chiaro che i sistemi di intelligenza artificiale conservano i pregiudizi degli esseri umani. In passato è stato evidenziato che lo stesso curriculum ha il 50% di possibilità in più di portare ad un colloquio di lavoro un candidato con nome europeo o americano anziché uno afro-americano. Allo stesso modo l'intelligenza artificiale tende ad associare i nomi europei-americani ad azioni positive. Situazione analoga per i pregiudizi di genere: le parole collegate al sesso femminile sono state associate all’arte mentre quelle maschili alla matematica.