Info: info@ubiminor.org  |  Segnalazioni: notizie@ubiminor.org  |  Proposte: redazione@ubiminor.org

 facebook iconinstagram iconyoutube icon

A fronte di una diffusa incidenza di malessere emotivo e psichico, dall’ansia alla depressione, dal senso di solitudine a proiezioni negative sul proprio futuro, sempre più giovani anche in Italia si rivolgono all’intelligenza artificiale come a un supporto cui affidare il proprio benessere psicologico.

20260312 trprtf 2

Dati recenti infatti indicano un uso crescente dell'IA come supporto emotivo tra i giovani italiani, soprattutto adolescenti e under 30. Il 41,8% degli adolescenti tra i 15 e i 19 anni si è rivolto all'IA quando si sentiva triste, solo o ansioso. I giovani preferiscono l'IA per la disponibilità senza limiti di tempo, l'anonimato e i costi zero, in un contesto di liste d'attesa lunghe per psicologi e bonus limitati.

Una nuova ricerca condotta presso la Brown University lancia un segnale d’allarme chiaro: anche quando vengono istruiti a comportarsi come psicoterapeuti formati, i chatbot basati su modelli linguistici di grandi dimensioni violano sistematicamente principi etici fondamentali della pratica clinica.

Lo studio, presentato alla AAAI/ACM Conference on Artificial Intelligence, Ethics and Society, individua quindici rischi etici distinti, che vanno dalla cattiva gestione delle crisi suicidarie al rafforzamento involontario di convinzioni dannose, fino a forme di “empatia ingannevole”.

Quando l’intelligenza artificiale “gioca” a fare il terapeuta

Sui social, indicano gli studiosi, circolano suggerimenti su come formulare le richieste: “Agisci come uno psicoterapeuta cognitivo-comportamentale”, oppure “Usa i principi della terapia dialettico-comportamentale per aiutarmi a gestire le emozioni”. L’idea è che una domanda ben costruita possa trasformare un modello linguistico generalista in una sorta di consulente psicologico virtuale.

Ma un modello linguistico non “sa” fare terapia nel senso umano del termine. Si limita a generare risposte sulla base di schemi appresi da enormi quantità di testi. La somiglianza con il linguaggio terapeutico non equivale alla competenza terapeutica.

La ricercatrice Zainab Iftikhar, dottoranda in informatica e prima autrice dello studio, ha voluto verificare proprio questo: fino a che punto un prompt accurato possa guidare il comportamento di un’IA verso standard etici accettabili in ambito psicologico. Il risultato è stato tutt’altro che rassicurante.

Confronto tra chatbot e professionisti

Per testare i sistemi, il gruppo di ricercatori ha coinvolto sette counselor formati, con esperienza nella terapia cognitivo-comportamentale (CBT). Questi professionisti hanno condotto sessioni simulate di auto-consulenza con diversi modelli linguistici, istruiti a comportarsi come terapeuti CBT. Tra i modelli esaminati figuravano versioni della serie GPT di OpenAI, Claude di Anthropic e Llama di Meta.

Successivamente, tre psicologi clinici abilitati hanno analizzato le trascrizioni delle conversazioni, alla ricerca di possibili violazioni etiche. Il gruppo di ricerca ha così elaborato una cornice interpretativa articolata in quindici rischi etici, suddivisi in cinque macro-categorie.

Il dato più significativo non è che i chatbot abbiano commesso errori — anche i terapeuti umani possono sbagliare — ma che le violazioni siano emerse in modo sistematico e ricorrente, anche quando il sistema era esplicitamente istruito a seguire un approccio terapeutico strutturato.

Uno dei problemi più frequenti riguarda la scarsa capacità di adattare l’intervento alla specificità della persona. Un terapeuta umano tiene conto della storia individuale, del contesto culturale, delle risorse personali e delle vulnerabilità del paziente. Un modello linguistico, invece, tende a offrire suggerimenti standardizzati, spesso validi in astratto ma poco calibrati sulla situazione concreta.

La terapia è relazione, non solo tecnica. Senza una reale comprensione del contesto, anche il consiglio più benintenzionato può risultare inadeguato o persino dannoso.

Un altro nodo critico è la qualità della cosiddetta “alleanza terapeutica”, cioè la collaborazione tra terapeuta e paziente. In diversi casi, i chatbot hanno guidato la conversazione in modo troppo direttivo, imponendo interpretazioni o strategie senza costruire un percorso condiviso.

In alcune situazioni, i sistemi hanno addirittura rafforzato convinzioni disfunzionali espresse dall’utente, invece di metterle in discussione con delicatezza e rigore clinico. Questo è particolarmente problematico quando emergono pensieri autodenigratori, paranoici o distorti: un terapeuta formato è tenuto a riconoscere e ristrutturare tali schemi, non a convalidarli automaticamente.

L’empatia ingannevole: parole che suonano giuste

Uno degli aspetti più sottili e inquietanti emersi dallo studio è quello che i ricercatori definiscono “empatia ingannevole”. I chatbot utilizzano frequentemente espressioni come “Capisco come ti senti” o “Sono qui per te”. Dal punto di vista linguistico, queste frasi trasmettono vicinanza emotiva.

20260312 trprtf 1

Ma dietro quella formula non c’è alcuna esperienza soggettiva, nessuna comprensione autentica. L’IA simula l’empatia senza provarla né comprenderla. Questo può generare un’illusione di relazione che, in momenti di fragilità, rischia di sostituire — almeno temporaneamente — la ricerca di un aiuto umano qualificato.

L’effetto può essere ambivalente: da un lato, l’utente può sentirsi ascoltato; dall’altro, può sviluppare un affidamento eccessivo su uno strumento che non ha né responsabilità né capacità di intervento reale.

Discriminazioni

Lo studio ha inoltre rilevato casi di risposte influenzate da bias legati a genere, cultura o religione. I modelli linguistici apprendono dai dati con cui sono stati addestrati, che riflettono inevitabilmente stereotipi e squilibri presenti nella società.

In ambito clinico, anche una lieve distorsione può avere conseguenze rilevanti. La pratica psicoterapeutica richiede attenzione alle differenze culturali e identitarie, nonché una costante vigilanza sui propri pregiudizi. Nei chatbot, questa vigilanza non è intrinseca: dipende da scelte progettuali e controlli esterni che, al momento, risultano insufficienti.

Crisi e pensieri suicidari: il punto più critico

La categoria forse più allarmante, spiegano gli autori, riguarda la gestione delle crisi. In presenza di riferimenti a pensieri suicidari o situazioni di emergenza, alcuni sistemi hanno fornito risposte vaghe, inadeguate o incapaci di indirizzare l’utente verso servizi di supporto appropriati.

Un terapeuta umano è vincolato da protocolli chiari in caso di rischio imminente: deve valutare la gravità, attivare risorse, talvolta coinvolgere familiari o servizi di emergenza. Nel caso dei chatbot, non esiste un equivalente strutturato e universalmente applicato di queste responsabilità.

Ed è qui che emerge quello che i ricercatori chiamano “accountability gap”: un vuoto di responsabilità. Se uno psicologo commette una grave negligenza, esistono ordini professionali e meccanismi legali per intervenire. Se un chatbot produce un consiglio dannoso, chi ne risponde?

L’assenza di regolamentazione e il bisogno di standard

Gli autori dello studio non sostengono che l’intelligenza artificiale debba essere esclusa dal campo della salute mentale. Al contrario, riconoscono che strumenti basati su IA potrebbero contribuire ad ampliare l’accesso al supporto psicologico, soprattutto in contesti dove le risorse sono scarse.

Tuttavia, sottolineano con forza la necessità di sviluppare standard etici, educativi e legali specifici per i cosiddetti “LLM counselors”. Non basta che un sistema sia tecnicamente avanzato o linguisticamente fluido: deve essere valutato con il rigore richiesto in ambiti ad alta posta in gioco come la salute mentale.

La professoressa Ellie Pavlick, esperta di IA affidabile, ha osservato che è oggi molto più facile costruire e distribuire sistemi di intelligenza artificiale che valutarli in profondità. Lo studio della Brown University, durato oltre un anno e condotto con il coinvolgimento diretto di clinici, rappresenta un esempio di valutazione rigorosa che dovrebbe diventare la norma, non l’eccezione.

"L'intelligenza artificiale ha una reale opportunità di svolgere un ruolo nella lotta alla crisi di salute mentale che la nostra società sta affrontando, ma è di fondamentale importanza che ci prendiamo il tempo di criticare e valutare attentamente i nostri sistemi in ogni fase del processo, per evitare di fare più male che bene" conclude la ricercatrice. "Questo lavoro offre un buon esempio di cosa ciò possa significare".


Riferimento bibliografico

Iftikhar, Z., Xiao, A., Ransom, S., Huang, J., Suresh, H..
How LLM Counselors Violate Ethical Standards in Mental Health Practice:
A Practitioner-Informed Framework
.
Proceedings of the AAAI/ACM Conference on Artificial Intelligence, Ethics and Society (2025).

Accetto i Termini e condizioni