video suggerito
video suggerito

Un’intelligenza artificiale è diventata sessista leggendo Google News

Una rete neurale progettata per analizzare i testi di Google News ha rilevato il sessismo contenuto all’interno dei nostri discorsi quotidiani.
A cura di Daniele Gambetta
426 CONDIVISIONI
Immagine

Le reti neurali artificiali sono tecnologie che, simulando i meccanismi del nostro cervello, permettono ad un computer di "apprendere" nozioni. Le applicazioni di questi dispositivi stanno fiorendo in questi anni, e sempre più cresce l'attenzione mediatica a riguardo. Proprio come un bambino ha bisogno di più esperienze per imparare un concetto, anche un computer necessita di una grande mole di dati prima di poter riconoscere dei pattern. Nel 2013 un gruppo di ricercatori americani ha costruito una rete neurale dedicata ad apprendere il linguaggio e il significato delle varie parole. Per fare ciò, diedero da leggere al computer un insieme (corpus) di tre milioni di parole prese dai testi di Google News. Lo scopo della rete neurale sarebbe stato trovare sinonimi, contrari e correlazioni tra le varie parole in base alla posizione nella quale comparivano all'interno di un discorso.

Il risultato fu riuscire a rappresentare i collegamenti tra parole in uno spazio di 300 dimensioni, all'interno del quale è possibile cercare connessioni tramite operazioni algebriche come semplici proporzioni. Ad esempio, "uomo sta a re come donna sta a regina", o in simboli "uomo : re = donna : regina". Il computer può anche essere interrogato, e ponendo "Parigi : Francia = Tokyo : x", il computer risponde "x=Giappone", riconoscendo che tra Parigi e e Francia vi è lo stesso rapporto che tra Tokyo e Giappone.

Quello che però i ricercatori non si aspettavano erano alcune risposte che il computer restituisce quando si chiedono corrispondenze in base ai diversi sessi. Interrogando il database con "padre : dottore = mamma : x", mentre ci si aspetterebbe di trovare "x=dottoressa", il computer restituisce "x=infermiera", così come al chiedere "uomo : programmatore = donna : x" non risponde "programmatrice" bensì "casalinga". Insomma il programma ha appreso, oltre al significato delle parole, anche il sessismo che il linguaggio medio all'interno delle notizie contiene.

Come procedere dunque? Il gruppo di scienziati sta pensando di correggere la rete neurale tramite delle rotazioni all'interno dello spazio delle parole, quindi cercando di "aggiustare" le interpretazioni che la macchina ha imparato, affinchè al momento di utilizzarla nelle sue applicazioni pratiche non pecchi di questa peculiarità. Tuttavia, oltre al problema ingegneristico, questo episodio rivela che prima di insegnare ai computer come comunicare, forse dovremmo impararlo noi.

426 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views