Le app per il lutto: opportunità o rischio? di Davide Sisto
In un’epoca sempre più segnata dal progressivo sviluppo delle tecnologie digitali e dell’intelligenza artificiale si stanno diffondendo, in tutto il mondo, nuove modalità per affrontare problemi di natura psicologica o addirittura psichiatrica, soprattutto legati all’elaborazione del lutto. In altre parole, sono state create svariate app, alcune scaricabili gratuitamente altre a pagamento, che offrono supporto sia collettivo sia personalizzato al lutto in una maniera molto particolare: in primo luogo, una volta creato il proprio account, permettono all’utente di accedere a gruppi di supporto e a forum collettivi i quali, moderati da professionisti umani e generalmente intenti a usare la lingua inglese, offrono molteplici testimonianze personali relative a una perdita dolorosa. Ciascun utente, in altre parole, può o solo leggere passivamente i racconti altrui o intervenire attivamente con la narrazione delle proprie vicende private. Ci si ritrova, pertanto, immersi all’interno di gruppi di supporto in cui incontrare persone provenienti da tutto il mondo, le quali hanno vissuto esperienze simili alla propria, confrontandosi con loro senza uscire di casa, usando il solo smartphone e la mediazione dello schermo. In queste sezioni dell’app sono inoltre incluse vere e proprie bibliografie dedicate al tema del lutto e della salute mentale.
In secondo luogo, queste app forniscono – di solito, sottoscrivendo un abbonamento – anche un supporto del tutto personalizzato. Vi sono, cioè, professionisti riconosciuti – psicologi, psichiatri, svariati terapeuti e addirittura notai e giuristi – a disposizione del singolo utente, di modo da fare sedute terapeutiche tramite gli schermi e da ottenere le consulenze necessarie in merito alla gestione delle eredità del caro estinto, compreso il supporto per la compilazione di documenti legali e finanziari.
Oltre ai professionisti umani, vi sono anche – in alcuni casi – veri e propri chatbot basati sull’intelligenza artificiale generativa, i quali offrono la loro assistenza come terapeuti virtuali 24h su 24. Pertanto, il singolo utente può decidere di parlare delle proprie vicende private con un programma di intelligenza artificiale, in grado di adattarsi alle risposte e di creare un legame emotivo con il paziente, riuscendo spesso ad affrontare anche le situazioni più critiche, come – per esempio – la minaccia di un atto suicidario (o, almeno così, viene garantito). La peculiarità di questi chatbot è la loro disponibilità totale e senza pause. Li si può contattare in qualsiasi momento del giorno e della notte, essendo privi delle esigenze tipicamente umane.
Le app per ora più utilizzate sono Untangle, DayNew, Empathy. Recentemente, un team di ricercatori del Dartmouth ha condotto la prima sperimentazione clinica su un chatbot terapeutico basato su IA generativa, chiamato Therabot. “Dopo otto settimane, tutti coloro che avevano usato Therabot hanno registrato una riduzione significativa dei sintomi, superiore alla soglia considerata clinicamente rilevante”, leggiamo in questo articolo.
La diffusione progressiva di questo tipo di supporto tramite app, soprattutto negli Stati Uniti ma anche nel continente europeo, ovviamente non può non sollevare tutta una serie di domande. In primo luogo, c’è da chiedersi a chi, effettivamente, raccontiamo le nostre vicende personali e confidiamo i nostri problemi di salute mentale. Come spesso capita nel mare magnum delle app, non abbiamo idea di come vengano utilizzati i nostri dati e, soprattutto, se vengono protetti e preservati con cura, tenuto conto dell’estrema vulnerabilità in cui si trova il dolente. Siamo davvero preparati a barattare i nostri bisogni di condivisione e di assistenza con la condivisione sregolata di informazioni estremamente delicate? In secondo luogo, là dove vengono offerti supporti sia da professionisti umani sia da programmi di intelligenza artificiali, ci si chiede se dall’altra parte dello schermo, nel caso l’utente voglia interagire soltanto con un essere umano, se è davvero soddisfatta la sua richiesta oppure se siano utilizzati chatbot a sua insaputa. Se l’utente usa la tal app in piena notte, a causa di un’improvvisa crisi, chi gli risponde? O, detto meglio: chi gli garantisce che a rispondere sia davvero una persona in carne e ossa? Inoltre, i chatbot sono programmati generalmente per trattenere il più possibile gli utenti che ne fanno uso: questo non inficia la relazione terapeutica? Non rischia, ad esempio, di creare subdole forme di dipendenza emotiva e psicologica? In terzo luogo, il supporto mediato dagli schermi, che sia offerto da un terapeuta umana o da uno artificiale, ha la stessa rilevanza di quello fatto in presenza?
L’innovazione tecnologica si evolve più rapidamente del modo di vivere degli esseri umani, dunque c’è da chiedersi se gli strumenti finora utilizzati dai terapeuti nelle sedute in presenza possano essere così facilmente sostituibili da quelli usati a distanza, tramite lo smartphone. Difficile dare oggi una risposta oggettiva. A mio modo di vedere, trovo positivi i forum e i gruppi di supporto presenti in alcune di queste app che, come negli altri gruppi presenti sui social media, possono offrire calore e vicinanza a chi fa fatica a rapportarsi con le persone che lo circondano. Più delicata la questione relativa alla vera e propria terapia tramite app. Di certo, è indice di una realtà in continua trasformazione, la quale intercetta i cambiamenti sociali e culturali degli esseri umani. Occorre, pertanto, non censurare ma tenere gli occhi aperti, facendo in modo che queste innovazioni possano rappresentare un surplus di aiuto, non una sostituzione.
E voi cosa ne pensate? Avete mai provato un app per il lutto? Fateci sapere.