La psicoterapia su ChatGPT, di Davide Sisto
ChatGPT è diventato, volens nolens, una specie di assidua compagnia quotidiana per un numero significativo di persone di tutte le età, che lo consultano a proposito di ogni possibile tema o argomento personale o sociale. Nel blog, a maggio, avevo già affrontato qui la delicata questione delle diffusissime app per il lutto, che integrano la presenza effettiva di un supporto umano a distanza con l’uso dell’intelligenza artificiale per venire incontro alle esigenze di chi ha vissuto il trauma di una perdita. Oggi, invece, voglio brevemente soffermarmi sull’uso esclusivo dell’intelligenza artificiale quale strumento privilegiato per una sorta di psicoterapia fai da te. Dagli Stati Uniti all’Europa, passando per i paesi asiatici, spopola infatti la trasformazione di ChatGPT in una specie di psicologo personale raggiungibile 24h su 24. Alla base di questo tipo di utilizzo, perlopiù intergenerazionale, vi sono almeno due aspetti fondamentali: il primo riguarda l’abitudine acquisita progressivamente dagli utenti di porre domande intime di natura biografica all’intelligenza artificiale, semplicemente curiosi di consultarne la risposta.
Su Reddit possiamo leggere innumerevoli commenti di chi racconta di aver chiesto a ChatGPT come interpreta la relazione con i genitori, con i partner, con gli amici. C’è chi ammette esplicitamente di condividere patologie o disturbi della personalità con l’intelligenza artificiale, affidandosi alle sue risposte, o di toccare temi solitamente imbarazzanti, come quelli di natura sessuale.
Qui entra in gioco il secondo aspetto fondamentale, quello relativo al tipo di risposta ricevuta. ChatGPT, infatti, per come è programmato, tende ad assecondare e, dunque, a rassicurare l’utente, fornendo un output che aderisca armonicamente all’input ricevuto. Come sottolinea un articolo del Post, il tono amichevole e rassicurante di ChatGPT viene incontro alle esigenze immediate di chi sta affrontando un periodo particolarmente critico della propria esistenza. In tal modo, l’intelligenza artificiale indossa le vesti di un amico intento ad appoggiare sempre le necessità esposte. A questo proposito, è significativo il fatto che, quando si è pensato di rendere ChatGPT meno adulatorio, gli utenti hanno in genere manifestato un feedback negativo. Come sottolinea qui Matteo Flora, “un piccolo “tweak” all’algoritmo, una modifica al tono, non è più un’ottimizzazione tecnica, ma un intervento su larga scala sulla psiche di milioni di persone”.
È evidente che questo nuovo fenomeno apra un orizzonte di riflessioni piuttosto variegato, il quale deve escludere – a mio avviso – interpretazioni pregiudizievoli, apocalittiche o superficiali. Un dato è certo: è assai pericoloso pensare di sostituire il terapeuta umano con l’intelligenza artificiale, ovviamente perché il primo dispone di competenze, di conoscenze e di capacità interpretative dell’identità umana che sfuggono all’asettica rielaborazione di dati contenuti nel web. Il significato dei comportamenti, compresi i silenzi, la postura e il movimento del corpo, è del tutto assente in uno strumento che si fonda sulla probabilità della risposta, estrapolandola dai contenuti ripresi e rielaborati in Rete.
Inoltre, è risaputo che ChatGPT tenda spesso a fornire risposte monche o addirittura errate, che possono diventare fuorvianti per chi ne fa uso. Non è la sostituzione la strada da intraprendere: il percorso di psicoterapia implica una complessità ermeneutica che mai potrà essere raggiunta da una macchina. Detto questo, è evidente che l’aumento esponenziale di richieste psicoterapeutiche a un assistente virtuale è il sintomo di svariate problematiche: a volte il professionista a cui ci si rivolge non soddisfa i propri bisogni, a volte l’utente non ha le possibilità economiche per affrontare un percorso di cura a pagamento, a volte ancora ci sono urgenze che spingono l’utente ad aver bisogno di un sostegno immediato, sostegno ovviamente offerto dall’intelligenza artificiale. Dobbiamo, in altre parole, interrogarci sul perché si cerchi un surrogato virtuale dello psicologo o dello psicoterapeuta, di modo da poter evitare le criticità che un uso incontrollato dell’intelligenza artificiale può produrre in una persona che è già di per sé molto fragile e, dunque, suscettibile.
Credo che la strada della censura non sia quella corretta. Bisogna essere consapevoli dell’estensione della domanda per capire come gestire al meglio l’offerta. Negli ultimi giorni, comunque, OpenAI sembra abbia manifestato l’intenzione di monitorare meglio le informazioni mediche o legali date dal chatbot. Certo, non vanno dimenticate le sagge parole della psicoterapeuta Alice Ghisoni, sempre presenti nell’articolo del Post: “Un buon terapeuta sa fare anche domande mirate così da capire a fondo il funzionamento di una persona e conoscere la sua personalità”, riuscendo anche a intercettare la comunicazione non verbale del paziente, cosa che manca totalmente all’intelligenza artificiale.
Voi cosa ne pensate? Avete mai posto domande di natura psicologica a ChatGPT?
Fateci sapere.



Negli ultimi mesi spopolano su Facebook, in Italia, gruppi denominati “Io negli anni Settanta c’ero”, “Io negli anni Ottanta c’ero” e via dicendo. Ciascuno conta svariate centinaia di migliaia di iscritti, quasi tutti appartenenti alle generazioni boomer e X. La peculiarità dei post condivisi nel gruppo è la seguente: un utente pubblica la versione digitalizzata di una fotografia analogica, appartenente a un passato piuttosto remoto, in cui lo vediamo ritratto insieme al coniuge, al figlio, al fratello o, comunque, a una persona che fa parte del nucleo familiare. Nella didascalia l’utente spiega che è immortalato insieme a un caro estinto e, per tale ragione, chiede a chi ne è capace di “animare” la fotografia con l’intelligenza artificiale. Nei commenti vediamo decine di versioni animate di questa fotografia, grazie al lavoro gratuitamente svolto da più persone. Per esempio, una donna condivide la foto di un bambino in primo piano, con lei posta leggermente sullo sfondo a mo’ di fantasma. Nella didascalia racconta che suo figlio è morto nel 1987 a tre anni. Lei è riuscita a sovrapporre un’altra fotografia che la immortala, di modo che sembrino stare vicini, ma ha bisogno che gli altri utenti creino una sorta di animazione artificiale che dia movimento all’immagine. Pertanto, siamo testimoni di un caloroso abbraccio artificiale da parte del piccolo figlio o semplicemente vediamo il suo volto che di colpo mostra un radioso sorriso. È impressionante la quantità di richieste simili, soddisfatte da un numero altrettanto esorbitante di manipolazioni con l’intelligenza artificiale. Ciò succede anche su TikTok, attraverso la manipolazione artificiale dei brevi video, e su Instagram, dove vengono modificati i reels.
In un’epoca sempre più segnata dal progressivo sviluppo delle tecnologie digitali e dell’intelligenza artificiale si stanno diffondendo, in tutto il mondo, nuove modalità per affrontare problemi di natura psicologica o addirittura psichiatrica, soprattutto legati all’elaborazione del lutto. In altre parole, sono state create svariate app, alcune scaricabili gratuitamente altre a pagamento, che offrono supporto sia collettivo sia personalizzato al lutto in una maniera molto particolare: in primo luogo, una volta creato il proprio account, permettono all’utente di accedere a gruppi di supporto e a forum collettivi i quali, moderati da professionisti umani e generalmente intenti a usare la lingua inglese, offrono molteplici testimonianze personali relative a una perdita dolorosa. Ciascun utente, in altre parole, può o solo leggere passivamente i racconti altrui o intervenire attivamente con la narrazione delle proprie vicende private. Ci si ritrova, pertanto, immersi all’interno di gruppi di supporto in cui incontrare persone provenienti da tutto il mondo, le quali hanno vissuto esperienze simili alla propria, confrontandosi con loro senza uscire di casa, usando il solo smartphone e la mediazione dello schermo. In queste sezioni dell’app sono inoltre incluse vere e proprie bibliografie dedicate al tema del lutto e della salute mentale. 
In questo periodo sto traducendo in italiano, insieme a Roberta Clamar, il libro “Foreverism” (Polity Press 2023) del filosofo Grafton Tanner. L’autore ritiene che il mondo presente sia ossessionato dalla durata senza fine degli eventi (personali e non) e manifesti un’avversione totale nei confronti di ogni forma di nostalgia, quale conseguenza di una perdita o di un’interruzione sia reale che simbolica. Il neologismo che Tanner ha coniato – appunto, “foreverism” – rappresenta un punto di partenza significativo per mostrare questa tendenza anti-nostalgica generale, un rifiuto delle cose finite su cui la società capitalistica investe oggi ingenti quantità di denaro. Al di là dei contenuti specifici del testo, mi pare evidente che stiamo vivendo un’epoca segnata da una curiosa contraddizione.