38 CONDIVISIONI
video suggerito
video suggerito
Opinioni

Un’intelligenza artificiale ha scoperto che questa parola innocua è associata al suicidio

Secondo il servizio di supporto Crisis Text Line, anche termini apparentemente innocui possono nascondere la volontà di farsi del male. La parola “ibuprofene”, per esempio, può predire un tentativo di suicidio 16 volte di più che la stessa parola “suicidio”.
A cura di Marco Paretti
38 CONDIVISIONI
Twitter Applicazione Suicidi

Social network come Facebook e Twitter hanno introdotto diversi strumenti volti a prevenire i casi di suicidio che, sempre più spesso, avvengono anche in diretta sulle stesse piattaforme sociali. Uno di questi è costituito da un sistema in grado di individuare le parole "a rischio" che possono indicare la volontà di togliersi la vita. Cercando il termine "suicidio" su Facebook, per esempio, il social network di Menlo Park rimanda ad una pagina di supporto dalla quale è possibile contattare una voce amica. Si parla di parole chiaramente legate all'atto del suicidio, ma, secondo il servizio di supporto Crisis Text Line, anche altri termini apparentemente più innocui possono nascondere la volontà di farsi del male.

Per scoprirlo ha realizzato un'intelligenza artificiale che ha analizzato 22 milioni di messaggi relativi a stress emotivo, giungendo ad una scoperta inaspettata: la parola "ibuprofene" può predire un tentativo di suicidio 16 volte di più che la stessa parola "suicidio". Un altro elemento in grado di segnalare un'emergenza non è nemmeno una parola ma l'emoji della faccina che piange: quando le persone la includono nei loro messaggi di stress emotivo, i supervisori della Crisis Text Line sono portati a chiamare il 911 11 volte più spesso rispetto al normale. In tutto, il centro di supporto ha integrato 9.000 nuove parole o combinazioni di termini in grado di indicare situazioni potenzialmente a rischio.

L'utilizzo dell'intelligenza artificiale rappresenta un enorme passo avanti nella risposta alle richieste d'aiuto implicite: i volontari impiegavano poco meno di due minuti per rispondere ai messaggi prima dell'implementazione della tecnologia, mentre ora riescono a farlo in soli 39 secondi grazie alla precedenza che l'algoritmo fornisce ai casi che individua come critici. "In questo modo riusciamo a parlare più velocemente alle persone che vogliono davvero suicidarsi e comprendere meglio come aiutarle" spiega Julie Cerel, presidente dell'American Association of Suicidology. "La scoperta di queste nuove parole ci ricorda che dobbiamo continuare a fare domande e rendere chiaro il fatto di voler sentire le risposte".

38 CONDIVISIONI
Immagine
Giornalista dal 2002 specializzato in nuove tecnologie, intrattenimento digitale e social media, con esperienze nella cronaca, nella produzione cinematografica e nella conduzione radiofonica. Caposervizio Innovazione di Fanpage.it.
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views