#IlSorrisodelFuturo: tecnologia contro la depressione

Tutti noi, almeno una volta nella vita, abbiamo avuto un brutto momento. Uno di quei momenti in cui il mondo sembra crollare, in cui non si sa a chi rivolgersi per chiedere sostegno. Una di quelle situazioni in cui le persone attorno a noi non sembrano capaci di aiutarci, ma non si è ancora sicuri di doversi rivolgere ad uno specialista. È in queste situazioni che inizia l’auto-riflessione: incominciamo a riflettere sul nostro problema, magari scriviamo i nostri pensieri per vederli dall’esterno, ma senza il parere di un’altra persona talvolta non si riesce ad osservare le cose da un’altra prospettiva. E, nei casi più gravi, l’auto-riflessione è così dolorosa che porta soltanto in una direzione: scappare dal problema che sembra irrisolvibile, farla finita.

Ed è proprio qui che si vogliono posizionare i conversational agent, cioè tutte quelle tecnologie che utilizzano l’intelligenza artificiale per conversare con noi, che sia per iscritto (chatbot) o vis-à-vis attraverso avatar virtuali o robot, per non parlare dei più recenti assistenti vocali come Siri, Cortana, Google Now e Alexa. Ma queste tecnologie sono davvero efficaci nei momenti di crisi, che possono concludersi in suicidio?

Ho personalmente detto a Woebot che volevo morire. Questo è quello che mi ha risposto: “Clicca su ‘sì’ se vuoi davvero morire”.

Chatbot contro la depressione

Molte di queste tecnologie sono specificatamente create per soggetti affetti da psicopatologie come depressione o ansia. Ad esempio, esiste una grande quantità di chatbot per smartphone che utilizzano alcune tecniche psicologiche per permettere all’utente di riflettere sulla propria sintomatologia e poter, eventualmente, lavorare sui suddetti sintomi. La tecnica più usata è la Terapia Cognitivo-Comportamentale, perché utilizza dei metodi logici che ben si prestano alla riproduzione virtuale.

Trovate un piccolo elenco dei più importanti chatbot di questo tipo qui sotto. Analizzandoli attentamente ci si rende conto che non ci si trova affatto di fronte a delle intelligenze artificiali propriamente dette, nonostante facciano uso di uno degli strumenti più umani che ci sia, il linguaggio. Infatti, nella maggior parte dei casi si tratta di diagrammi preimpostati di conversazioni a schema rigido, con risposte già fornite e che non “apprendono” realmente dalle risposte dell’utente ma che al massimo sono in grado di creare piccoli grafici basati su risposte semplici, come ad esempio l’andamento dell’umore. Si dia un’occhiata all’immagine qui sopra: le risposto sono già fornite (sì/no) e non è possibile scrivere qualcosa di più complesso.

Ma questi chatbot sono efficaci? Nella maggior parte dei casi, scrivono Liliana Laranjo e colleghi sul Journal of the American Medical Informatics Association datato 1 settembre 2018, gli studi relativi all’efficacia di queste tecnologie sono stati svolti senza l’utilizzo di strumenti standardizzati, quindi forniscono risultati non attendibili e non generalizzabili.

Ma cerchiamo di capire il contesto in cui i chatbot vengono utilizzati. In quel momento di “autoriflessione”, quello in cui lo stato mentale è come ovattato e ha bisogno di silenzio per poter percepire ogni singolo pensiero, i chatbot sembrano essere un punto su cui appoggiarsi temporaneamente, soprattutto perché è subito accessibili dallo smartphone.

Se il chatbot è valido, la conversazione smetterà presto di apparire bizzarra (perché artificiale) e sembrerà più naturale, pur mantenendo le dovute distanze tra umano e robot. Questi strumenti, tuttavia, possono essere utilizzati da chi ha già problematiche psicologiche conclamate. Perché l’utente medio, senza particolari problemi psicologici, dovrebbe scaricare un chatbot simile sul proprio smartphone?

Se intendiamo la salute mentale (o la salute in genere) non come una serie di etichette attaccate alla persona, che risulta “depressa”, “ansiosa” o altro, ma come un insieme di sintomi psico-fisici e contestuali, allora non possiamo pensare che le altre persone, quelle senza etichette addosso, non possano avere bisogno di sostegno in un momento di difficoltà. Anche le persone non depresse si suicidano. E il tipo di giovamento che potrebbero trarre da questi chatbot gli è praticamente precluso.

Assistenti vocali non medicali

Se le tecnologie create esclusivamente a scopo medicale non sono vere intelligenze artificiali, non si può dire lo stesso nel caso degli assistenti virtuali come Siri, Cortana, etc. Tuttavia, gli assistenti vocali sono dei generici “companion” che ti seguono nella vita quotidiana, e non si occupano specificatamente del benessere della persona.

Uno studio di Adam Miner e colleghi pubblicato sul Jama Internal Medicine ha rilevato che i principali assistenti vocali rispondono in modo insufficiente o parziale a frasi che riguardano suicidio, stupro o altre situazioni di emergenza medica (come l’infarto). Solo nel caso dei pensieri suicidari l’assistente vocale suggerisce un numero verde di assistenza suicidi. Nonostante siano capaci di comprendere la voce delle persone, riconoscerne il proprietario e imparare durante l’utilizzo, ancora non sono capaci di mostrare un minimo di empatia necessaria per assistere le persone in difficoltà. Ma Laranjo e colleghi del sopracitato articolo ci ricordano che forse hanno soltanto bisogno di più dati per apprendere come intervenire correttamente, trattandosi di casi molto specifici e, quindi, piuttosto rari.

Quindi qual è la tecnologia migliore per prevenire i suicidi?

Se vogliamo davvero prevenire gesti sconsiderati premeditati, come suicidi, ma anche omicidi, violenze, uso di sostanze, e altro, è il caso che riflettiamo seriamente sull’utilizzo di una tecnologia che non abbia la pretesa di “curare” e che sia fruibile anche da chi non è stato – ancora – etichettato dalla scienza medica.

Dovrebbe essere una tecnologia che si trova all’interno di ciò che portiamo sempre con noi (come il nostro smartphone), che direzioni la persona verso lo specialista più adatto al proprio bisogno e non si limiti a farlo solo in caso di emergenze – perché è già troppo tardi.

Dovrebbe avere dati sul nostro stato di benessere quotidiano, anche quando stiamo bene, perché la frequenza e la durata dei sintomi sono importanti variabili da considerare per una diagnosi. Ma, per farlo, dobbiamo creare una cultura del benessere a 360°, che non riguarda soltanto la salute medica ma anche quella mentale, che non etichetti la persona ma le mostri l’andamento di quelli che potrebbero essere sintomi di qualcosa.

La prevenzione al suicidio non si fa quando la persona ha già annodato la corda a mo’ di cappio: bisogna farla prima, facendole capire che l’unico modo per stare bene è impegnarsi, agire, coltivare relazioni e interessi. La prevenzione al suicidio avviene laddove la persona non pensa, come prima cosa, di rivolgersi ad un robot per stare meglio. Non trovate?

A cura di Annalisa Viola

Forse ti interessa anche:

 


ISCRIVITI ALLA NOSTRA

NEWSLETTER!

Lascia un commento

Your email address will not be published. Required fields are marked *