Dell'intelligenza artificiale di Facebook si parla ormai da tempo e se ne è tornato a parlare recentemente per la capacità del software messo a punto dagli ingegneri del social network di negoziare e persino mentire come gli umani. Ma non solo, perché nascosto nel rapporto pubblicato dall'azienda di Menlo Park si trova un'altra informazione piuttosto interessante: durante le ricerche sull'IA, gli ingegneri hanno dovuto porre dei paletti alle conversazioni dei bot perché le interazioni tra i software "hanno portato a divergenze dal linguaggio umano a causa dello sviluppo di una nuova lingua da parte dei software".
Insomma, l'IA di Facebook ha messo a punto un linguaggio non umano con il quale ha intrattenuto discussioni con la controparte virtuale, tanto che gli sviluppatori hanno dovuto applicare un modello fisso per evitare che i software si allontanassero completamente dal nostro linguaggio durante le loro interazioni. In breve, il modello che consente a due bot di discutere utilizza l'intelligenza artificiale per realizzare strategie con le quali guidare una negoziazione, un approccio che ha portato entrambe le parti ad utilizzare un linguaggio sempre meno umano e sconosciuto.
Non si parla, ovviamente, di singolarità: i bot sviluppati da Facebook non rappresentano ancora una vera e propria intelligenza artificiale consapevole di sé, ma lo sviluppo di questa sorta di linguaggio dimostra come le macchine siano in grado di ridefinire elementi fino ad ora ritenuti esclusivamente umani come, appunto, il linguaggio. "C'è un grande potenziale per il lavoro futuro" hanno spiegato i ricercatori di Facebook nello studio. "In particolare nell'esplorazione di altre tipologie di ragionamento e nell'aumentare la diversità d'espressione senza allontanarsi dal linguaggio umano".