38 CONDIVISIONI
video suggerito
video suggerito

Il bot di Microsoft ci ricasca: sostiene che il Corano è violento e parla di Osama Bin Laden

Un anno fa scoppiava il caso di Tay, il chatbot di Microsoft che, durante una conversazione pubblica su Twitter cominciò a sciorinare frasi razziste molto violenti. A distanza di poco più di un anno, la situazione si ripete con Zo, il successore di Tay, che in una conversazione ha detto che “il Corano è violento”.
A cura di Francesco Russo
38 CONDIVISIONI
Immagine

Un anno fa scoppiava il caso di Tay, il chatbot di Microsoft che sarebbe dovuto diventare un punto di riferimento con cui dialogare. Fatto sta che di lì a poco il chatbot, durante una conversazione pubblica su Twitter, cominciò a sciorinare frasi razziste particolarmente scioccanti. Esperimento chiuso e polemiche infinite. Microsoft decise allora di riprovarci a fine 2016, quindi a pochi mesi di distanza, con un nuovo chatbot, questa volta chiamato Zo. Solo che, a differenza del predecessore, nel caso di Zo le piattaforme con cui entrare in contatto sono state limitate solo a Kik, la piattaforma di messaggistica istantanea molto utilizzata dai teenager americani, e a Messenger. Ma a quanto pare, come riportato da BuzzFeed, anche Zo è andato in confusione sostendendo, in una conversazione, che il "Corano è violento" e che "Osama Bin Laden è stato catturato dopo anni di informazioni raccolte da più di una amministrazione".

Quando Zo è stato lanciato in molti si chiedevano se avesse fatto la stessa fine di Tay. E, infatti, così è stato. L'idea di Microsoft è quella di lanciare dei chatbot più evoluti, in grado di tenere una conversazione che vada al di là di strategie di marketing che sempre più spesso impiegano chatbot per creare coinvolgimento con i clienti. Zo doveva essere un'altra cosa e Microsoft sapeva benissimo delle difficoltà a cui andava incontro. Ma quello che tutti temevano è infatti poi successo.

Qualche giorno fa un reporter di BuzzFeed ha voluto fare quattro chiacchiere con Zo. Ebbene, al quarto messaggio arriva la frase sul Corano che "è molto violento". Per poi aggiungere in seguito, quando il reporter chiede "Osama Bin Laden", che il "principe del terrore" fosse stato catturato dopo aver raccolte informazioni da più di un'amministrazione. Dichiarazioni politiche molto forti e Microsoft, lanciando Zo, aveva dichiarato di aver lavorato molto su questo aspetto proprio per evitare un nuovo caso Tay. Va detto che nel caso di Tay Microsoft sostenne che l'incidente in realtà fu provocato da troll. Ma, stando a Zo, la situazione non è cambiata molto, anche perchè Zo, così come Tay, è un bot rivolto proprio ai più giovani e questo tipo di linguaggio potrebbe costituire un grosso problema.

Microsoft è stata poi contattata da BuzzFeed e ha ribadito la scelta di continuare con Zo manifestando soddisfazione per come stando andando le cose. Evidentemente c'è ancora molto da lavorare da questo punto di vista e Microsoft lo sa bene. Questa è la dimostrazione di come i chatbot in realtà non siano ancora molto evoluti, specie nelle conversazioni quotidiane. Vedremo quale saranno gli sviluppi.

38 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views