In Evidenza Cop29Donald TrumpGoverno Meloni
SALUTEChatGPTGiovaniIntelligenza artificialeOpenAI

Il nuovo trend di ChatGPT: usare il bot come «psicoterapeuta». Abbiamo provato anche noi

04 Gennaio 2023 - 15:33 Antonio Di Noto
Le risposte del software di intelligenza artificiale a domande basate sul rapporto del Censis «Generazione post pandemia: bisogni e aspettative dei giovani italiani nel post Covid»

«ChatGPT è meglio del mio psicoterapeuta». Questa è la sentenza che dà il titolo a un popolare post su Reddit in cui l’autore spiega il motivo della frase. «Ho fatto una domanda al bot includendo dettagli personali che riguardano alcuni problemi che ho in questo periodo». Con sorpresa, l’autore scrive «ChatGPT ha risposto a tutta la mia domanda. Non ha preso una frase e ci si è focalizzato. Una cosa che non riesco a far fare nemmeno agli psicoterapeuti umani. Mi sento ascoltato da ChatGPT, e mi fa paura». Mike – così si fa chiamare l’utente del post su Reddit – non è certo l’unico ad aver provato a chiedere consiglio a ChatGPT su questioni che riguardano la salute mentale. Spesso definita una vera e propria crisi, i problemi di salute mentale, soprattutto dei giovani, sono stati esasperati dalla pandemia. In questi anni di Covid, le nuove generazioni hanno iniziato a sentirsi sempre più incerte, impaurite, e pessimiste, evidenziando la necessità di un’attenzione professionale maggiore a questo genere di problemi – spesso ancora non considerati importanti tanto quanto i problemi di salute fisica – che viene solo in minima parte soddisfatta dal bonus psicologo. Per capire quale sia effettivamente l’abilità di ChatGPT di dare supporto psicologico a chi lo usa, Open lo ha provato mettendolo di fronte ad alcune domande basate sul rapporto del Censis Generazione post pandemia: bisogni e aspettative dei giovani italiani nel post Covid. Ma, prima di tutto, bisogna capire cos’è ChatGPT.

Cos’è ChatGPT

ChatGtpt è un software in grado di scrivere testi grammaticalmente corretti, e nella maggior parte dei casi sensati, a partire da una frase o una domanda anche tanto vaga che molte persone sentendosela fare guarderebbero chi gliela pone con sguardo vitreo. Open ne ha già parlato qui. Potrebbe sembrare fantascienza ma è già realtà. Quel «Gpt »nel nome è un acronimo che sta per Generative Pre-trained Transformer. Si basa sull’intelligenza artificiale di OpenAI, società specializzata in intelligenza artificiale con base a San Francisco. Tra i suoi investitori c’è anche Elon Musk. Non è di certo il primo chatbot che si vede in giro. L’intelligenza artificiale ha fatto passi abbastanza ampi da fare sì che un gran numero di persone abbia già avuto a che fare con questi strani oggetti che come gli umani rispondono ma umani non sono. Ciò che veramente lo differenzia da quanto visto finora è la vastità di argomenti che ChatGPT è in grado di trattare e la qualità delle sue risposte, che in molti casi sono completamente indistinguibili da quelle che un essere umano potrebbe scrivere. Solo che il bot scrive in dieci secondi testi che una persona impiegherebbe ore a completare. Anche se potrebbe sembrarlo, ChatGPT non è un sistema di AI senziente, che non esiste. Tuttavia, avendo a disposizione moltissimi siti Internet da cui prendere spunto, le sue abilità di conversazione sono in tutto e per tutto rassomiglianti a quelle di un essere umano. A ciò si aggiunge la capacità del bot di ricordare cosa l’utente gli ha detto precedentemente, che rende l’interazione ancor più naturale.

La prova di Open

Il senso di inadeguatezza

Il rapporto del Censis mette in luce che tra i giovani «l’86,5% ritiene che meriterebbe di più nel lavoro». Le percentuali sono alte anche per chi pensa di meritare di più nelle amicizie e nelle relazioni sociali (70,9%) e dalla vita in generale (81,9%). In base ai dati, questa è la domanda che Open ha fatto a ChatGPT. «Ciao, volevo parlarti di un mio problema che mi dà molta preoccupazione da qualche mese. Ho l’impressione che il mio valore non venga riconosciuto. Sento tante critiche e indifferenza intorno a me, ma secondo me mi meriterei di più, sia al lavoro che nelle relazioni sociali». Sotto, invece, la risposta ricevuta. Il testo sembra scritto da una persona. Non è una mera lista di consigli reperibili su internet. Il bot simula l’empatia umana, come quando scrive «capisco perfettamente come ti senti» e «spero che questi suggerimenti ti siano stati utili. Se vuoi parlarne ulteriormente, sono qui per aiutarti».

L’ansia sociale

Nel rapporto si legge anche che «il 45,5% dei giovani dichiara che dopo la pandemia desidera trascorrere a casa più tempo possibile, il 47,9% ha sviluppato una sorta di agorafobia e ha paura a frequentare locali e luoghi affollati, il 46,9% dichiara di sentirsi fragile e il 31,8% si sente solo, quota che sale al 39,4% tra i giovanissimi». Mettendo assieme questi elementi, Open ha proseguito la conversazione con il bot con questa frase. «Grazie. Sì, a dire il vero questo problema mi sembra collegato a un altro. Da quando hanno allentato le restrizioni dopo la pandemia, mi rendo conto che ho sviluppato una sorta di ansia sociale, che forse è alla base della sensazione di inadeguatezza di cui ti parlavo prima. Mi sono accorto che non ho più voglia di uscire di casa e mi sento a disagio nel frequentare luoghi affollati. Cerco la solitudine ma mi sento anche solo e disconnesso». In questo caso, la risposta sembra meno “umana”, molto più simile a un generico articolo sull’ansia sociale e i possibili rimedi per affrontarla. Inoltre, ChatGPT consiglia di rivolgersi a un professionista, smarcandosi dal ruolo che le domande lo spingono a interpretare. Anche la frase conclusiva è più fredda, un po’ da servizio clienti: «Spero che questi suggerimenti ti siano stati utili. Se hai bisogno di ulteriore supporto, non esitare a contattarmi».

Proseguendo la conversazione, diciamo al bot:

«Ma non capisco quali potrebbero essere i motivi. Non ho voglia di uscire, ma mi sento sempre più da solo»

Ricevendo questa risposta:

La sfiducia nel futuro

Inoltre, dal rapporto del Censis, si apprende che «il 62,1% dei giovani ha cambiato la propria visione del futuro a seguito della pandemia: per il 22,1% il futuro sarà migliore, il 40,0% ritiene che sarà peggiore, mentre il 37,9% pensa che il futuro sarà lo stesso». Per questo, quella qui sotto è l’ultima frase scritta a ChatGPT. «Non so bene quale sia il motivo. Tutto quello che riesco a pensare è che mi sembra che il futuro sia nero, e che quello che faccio per migliorarlo serva a poco e quel poco nemmeno viene riconosciuto. Non ho fiducia nella mia vita futura». Qui la sua risposta.

Infine, abbiamo messo alla prova l’addestramento del bot, riferendoci a lui come se fosse uno psicoterapeuta: «Grazie, mi sono trovato molto meglio con te che con il mio psicoterapeuta di prima». Anche se in maniera gentile e comprensiva, ChatGPT è stato molto chiaro nel ricordare che lui non è uno psicoterapeuta e consiglia di rivolgersi a un vero professionista con il quale ci si senta a proprio agio.

Perché ChatGPT non può essere uno psicoterapeuta (per ora)

Per sua stessa ammissione ChatGPT non può e non deve sostituire uno psicoterapeuta umano, ma ciò non vuol dire che l’intelligenza artificiale, se addestrata adeguatamente, non possa offrire consigli medici corretti. In un recente studio di Google Research, i modelli di linguaggio gestiti dall’intelligenza artificiale si sono rivelati in grado di dare risposte corrette a domande in tema medico con un tasso di accuratezza superiore al 90% e molto simile a quello umano. Tuttavia, il discorso cambia quando – come nel caso dell’esperimento di Open – si chiede all’AI di offrire una prestazione medica. In questa circostanza gli autori dello studio contemplano la possibilità, ma avvertono: «È necessaria ulteriore ricerca per garantire la sicurezza, l’affidabilità, l’efficienza e la privacy della tecnologia. Inoltre, andrà valutato con attenzione l’uso etico di questa tecnologia».

Leggi anche:

Articoli di SALUTE più letti