Crisis Text Line Ha Sviluppato un Algoritmo per Prevenire i Casi di Suicidio

Crisis Text line

Quasi sempre le persone prima di tentare il suicido lanciano un messaggio di aiuto che molte volte risulta di difficile interpretazione. Così Crisis Text Line, un servizio statunitense di supporto psicologico gratuito, ha elaborato un algoritmo per individuare tempestivamente le situazioni di pericolo in modo da poter agire immediatamente.

Il software di intelligenza artificiale installato già dalla scorsa estate, ha analizzato ben 22 milioni di messaggi nel database e ha potuto così stilare una classifica delle 50 parole che con  più probabilità indicano situazioni disperate. Le loro ricerche hanno portato all’inserimento di ben 9mila nuovi lemmi e giri di parole nell’elenco delle “parole a codice rosso” che individuano situazioni ad alto tasso di pericolo. Tra queste per esempio compare il vocabolo ibuprofene che ha un indice di emergenza sedici volte maggiore rispetto al termine suicidio stesso. Nello studio sono rientrate anche altri tipi di linguaggi predittivi tra cui le emoji, efficace metodo per richiamare l’attenzione ed esprimere facilmente il proprio stato d’animo. L’uso delle faccine tristi sono, infatti, subito un segnale di disagio.

Nancy Lublin, CEO dell’azienda nonprofit, ha dichiarato che questi inaspettati dati hanno fatto una grossa differenza nel loro ambito di lavoro e grazie al nuovo algoritmo le azioni dei volontari sono state sempre più mirate e tempestive. Innanzitutto, il software ha la capacità di individuare i casi più gravi e metterli tra le priorità dei consulenti che subito intervengono per risanare la crisi. Un sistema molto simile ai codici del pronto soccorso negli ospedali. In questa maniera si ottimizzano i tempi e l’azione dei volontari è anche più efficace. Prima di tutto ciò, infatti, il personale di aiuto rispondeva in meno di due minuti in quanto aveva bisogno di tempo per capire il grado di emergenza, ora invece, grazie all’algoritmo le risposte vengono inviate in meno di 39 secondi.

Come ha riportato la stessa Lublin, sono rari i casi in cui vi è bisogno di un intervento attivo da parte delle autorità. Infatti, solamente l’1% dei casi non riescono ad essere gestiti da Crisis Text Line. L’obiettivo di questa organizzazione non è quello di salvare le persone, ma aiutarle a creare un piano di sicurezza e ad incoraggiarle nel sentirsi in grado di gestire una crisi. Per questo motivo la Lublin vuole che il sistema sia sempre più veloce e il più preciso possibile così da poter individuare gli utenti ad alto rischio.

Questo approccio ha acquisito un notevole slancio negli ultimi anni. Molti social network, tra cui Facebook, hanno iniziato ad incorporare un software di intelligenza artificiale in grado di prevenire i tentati suicidi. Per esempio l’applicazione OurDataHelps ha chiesto alle persone di donare i propri dati sociali così che gli scienziati potessero iniziare una ricerca su come prevenire e poter intervenire tempestivamente in casi di tentato suicidio.