Intelligenza artificiale e psicoterapia: perché serve un Manifesto 

L’intelligenza artificiale non va demonizzata, ma neppure mitizzata. Può contribuire a migliorare alcuni aspetti della psicoterapia, ma la cura della sofferenza psichica resta fondata sulla presenza umana, sulla relazione e sulla responsabilità

L’intelligenza artificiale è entrata ormai stabilmente nel dibattito sulla salute mentale. Chatbot, sistemi predittivi, applicazioni per il monitoraggio dell’umore, strumenti di supporto alla diagnosi e piattaforme digitali promettono di rendere la cura più accessibile, tempestiva e personalizzata. Ma proprio perché queste tecnologie toccano una delle aree più delicate dell’esperienza umana — la sofferenza psichica — è necessario interrogarsi non solo su ciò che l’IA può fare, ma soprattutto su ciò che è lecito, appropriato e clinicamente responsabile farle fare. 

Il Manifesto sulla salute mentale e l’intelligenza artificiale. Principi etici, clinici e normativi, redatto dal CD della Consulta CBT (Psicoterapia Cognitivo e Comportamentale), nasce da questa esigenza: governare l’innovazione, evitando sia il rifiuto ideologico della tecnologia sia l’entusiasmo ingenuo verso strumenti ancora in larga parte da validare nella pratica clinica reale. Il suo punto di partenza è chiaro: l’intelligenza artificiale può rappresentare una risorsa significativa per la salute mentale, ma solo se rimane al servizio della relazione terapeutica e della responsabilità professionale. Non può diventare un sostituto del terapeuta, né una scorciatoia per compensare la carenza dei servizi. 

L’alleanza terapeutica

Il primo nodo affrontato dal Manifesto riguarda la natura stessa della psicoterapia. La psicoterapia non è una semplice conversazione, né una sequenza di risposte corrette a problemi emotivi. È una pratica clinica fondata sulla relazione, sulla fiducia, sull’ascolto, sulla responsabilità e sulla capacità del terapeuta di comprendere la singolarità della persona. L’alleanza terapeutica non è un accessorio del trattamento, ma uno dei suoi principali fattori di efficacia. Essa implica presenza umana, continuità, capacità di tollerare l’ambivalenza, gestione delle emozioni, lettura del contesto e assunzione di responsabilità. 

Da questo punto di vista, l’intelligenza artificiale incontra un limite strutturale. Può simulare il dialogo, produrre risposte linguisticamente plausibili, offrire informazioni, riformulare contenuti e proporre esercizi. Tuttavia, non possiede intenzionalità clinica, responsabilità morale, coscienza del contesto, né capacità di assumere un impegno relazionale nel tempo.  

Utilità e rischi dell’IA

Questo non significa negare l’utilità dell’IA. Al contrario, il Manifesto riconosce diversi ambiti nei quali essa può offrire un contributo importante. Può aiutare nella raccolta e organizzazione dei dati clinici, nella sintesi di informazioni, nella produzione di materiali psicoeducativi, nel monitoraggio dell’andamento sintomatologico. Può inoltre supportare il clinico nell’individuazione di pattern, nella formulazione di ipotesi e nella valutazione di alcuni segnali di rischio. 

Tuttavia, questi strumenti devono restare strumenti di supporto, non dispositivi sostitutivi della decisione clinica. Le evidenze disponibili suggeriscono che essi possano produrre benefici soprattutto nel breve periodo, in particolare in presenza di sintomi lievi o moderati di ansia, depressione o stress. Ma questi effetti non autorizzano a considerarli equivalenti a una psicoterapia. Molti studi riguardano interventi brevi, campioni selezionati e follow-up limitati. Inoltre, rimane aperto il problema della sostenibilità degli esiti nel medio-lungo periodo. 

Il rischio principale è l’uso non supervisionato, soprattutto con persone vulnerabili. Un chatbot può non riconoscere adeguatamente una crisi suicidaria, può dare risposte inappropriate, può confermare pensieri disfunzionali, può generare una falsa sensazione di presa in carico. Nei pazienti più fragili, negli adolescenti, nelle persone isolate, negli anziani o in chi presenta disturbi gravi, la riduzione del contatto umano può diventare un fattore di rischio anziché di protezione.  

Il ruolo dello psicoterapeuta

Un altro tema centrale è quello della responsabilità. Se un algoritmo suggerisce un’ipotesi diagnostica o segnala un rischio suicidario, chi decide? Il Manifesto propone una formula molto efficace: occorre passare dal “possibile tecnico” al “lecito clinico”. Non tutto ciò che è tecnicamente possibile è anche clinicamente appropriato. Un sistema può produrre una previsione, ma la decisione resta un atto professionale umano. Il terapeuta deve valutare criticamente l’output dell’algoritmo, chiedersi su quali dati si basi, per quale popolazione sia stato validato, quali bias possa contenere e quali conseguenze possa produrre. 

In questa prospettiva, il ruolo dello psicoterapeuta non viene ridotto, ma diventa più complesso. Il clinico deve saper usare l’IA senza delegarle il giudizio. Deve integrare dati, strumenti digitali, evidenze scientifiche e comprensione relazionale. Deve saper distinguere il supporto utile dalla sostituzione impropria, l’informazione dalla cura, la risposta automatica dalla responsabilità terapeutica. 

Servono nuove competenze

Il Manifesto richiama anche il quadro normativo europeo, in particolare l’AI Act e il GDPR. Non si tratta di vincoli burocratici, ma di strumenti di tutela: protezione dei dati, consenso informato, trasparenza, tracciabilità, supervisione umana e sicurezza diventano condizioni essenziali per ogni applicazione dell’IA in salute mentale.  

Da qui deriva anche una conseguenza formativa. Psicologi e psicoterapeuti devono acquisire nuove competenze: alfabetizzazione tecnologica, capacità di valutare criticamente le evidenze, conoscenza dei rischi etici e giuridici, competenza nell’integrazione clinica degli strumenti digitali. Ma, insieme a queste competenze, devono rafforzare proprio ciò che nessuna tecnologia può sostituire: la qualità della relazione terapeutica.

In conclusione, l’intelligenza artificiale non va demonizzata, ma neppure mitizzata. Può contribuire a migliorare alcuni aspetti della cura, ma solo se resta collocata entro una cornice clinica, etica e normativa rigorosa. La psicoterapia del futuro non dovrebbe essere una psicoterapia automatizzata, ma una psicoterapia criticamente aumentata: più capace di usare dati e strumenti, ma anche più consapevole che la cura della sofferenza psichica resta fondata sulla presenza umana, sulla relazione e sulla responsabilità. 

condividi su
Ultimi articoli di Idee
articoli correlati intelligenza artificiale
articoli correlati psicologia
articoli correlati salute