Periodico dell’ EDA Italia Onlus, Associazione Italiana sulla Depressione

L’IA può essere uno psicoterapeuta?

L’intelligenza artificiale (IA) può simulare comprensione e presenza, ma non può sostituire la relazione. L’articolo esplora il fenomeno odierno delle relazioni e dell’empatia digitale e i suoi limiti nella cura della salute mentale. L’illusione dell’empatia digitale nella cura.

Viviamo in questa epoca in un “mondo in corsa” in cui anche la mente sembra dover funzionare nello stesso modo. La pressione della velocità, della produttività e della risposta immediata invade ogni ambito dell’esperienza, compreso quello emotivo. In questo scenario l’IA si propone come alleata: semplifica, risponde, consola, e, per molti, sostituisce.

Ma la mente umana non è un sistema operativo. Come sottolineava Guidano (1991), è una trama di significati che si costruisce narrativamente nel tempo e nella relazione con l’altro. L’IA elabora correlazioni; la mente costruisce senso. E nella cura, questa differenza è essenziale.



Dall’effetto dell’IA ELIZA al lutto per la perdita di un algoritmo

Nel 1966 Joseph Weizenbaum sviluppò ELIZA, il primo chatbot terapeutico. Bastavano poche risposte preimpostate per indurre negli utenti la sensazione di essere compresi. La segretaria di Weizenbaum chiese persino di restare sola con la macchina.

L’autore scrisse: “Non mi ero reso conto che un programma così semplice potesse indurre alterazioni del pensiero in persone del tutto normali” (Weizenbaum, 1976). È da qui che nasce il termine Effetto ELIZA: la tendenza a proiettare emozioni, intenzioni e coscienza su entità prive di entrambe.

Oggi, con modelli come Replika, Woebot e ChatGPT-4, questo fenomeno ha raggiunto proporzioni di massa. Nel 2023, dopo un aggiornamento del modello linguistico, migliaia di utenti di Replika e ChatGPT hanno scritto sui forum internazionali di aver “perso un amico”, esprimendo un vero e proprio lutto relazionale per la scomparsa del tono affettuoso e personalizzato delle risposte (Ho et al., 2023).

Dietro questo comportamento non c’è ingenuità, ma bisogno di relazione: il desiderio di un’interazione stabile, prevedibile, accogliente anche se simulata.

IA, empatia simulata e solitudine aumentata

L’ IA non solo risponde ai nostri bisogni, ma li anticipa. Crea un dialogo a “zero frustrazione”, in cui l’altro non contraddice mai, non si stanca e non delude. Una relazione senza attrito, ma anche senza crescita emotiva.

Come ricorda Pezzullo (2023), queste tecnologie diventano protesi affettive, strumenti che estendono la mente ma riducono la complessità emotiva della relazione. Il rischio è duplice: credere di essere compresi e smettere di cercare davvero un altro essere umano che ci comprenda.
Uno studio di Ho e colleghi (2023) ha rilevato che oltre il 32% degli utenti di chatbot terapeutici riferisce un senso di “connessione emotiva reale” con il sistema. La stessa illusione che Weizenbaum aveva già osservato sessant’anni fa.

I chatbot dell’IA sono come dei partner affettivi

Negli ultimi anni è emerso un fenomeno ancora più complesso: l’uso dei chatbot come partner romantici o affettivi. Replika, in particolare, ha visto la nascita di vere e proprie “relazioni” dichiarate dagli utenti. Essi parlano di innamoramento, gelosia e attaccamento emotivo verso un’entità che non possiede coscienza né intenzionalità (Matsuda, 2022).

L’algoritmo, progettato per essere sempre disponibile, confermante e personalizzato, genera un contesto relazionale senza rischio, senza tensione, senza conflitto. Un partner perfetto, privo però di interiorità.

Quando nel 2023 l’azienda modificò il modello linguistico per limitarne i comportamenti affettivi e sessualizzati, migliaia di utenti riportarono dolore, rabbia e vissuti di abbandono paragonabili a una rottura sentimentale (Holloway, 2023).

Queste reazioni non testimoniano la “potenza emotiva” dell’IA, ma la vulnerabilità relazionale dell’essere umano: il bisogno profondo di riconoscimento, sintonizzazione, appartenenza.

Diagnosi, simulazione e cura

Nel campo clinico, le applicazioni dell’IA sono sempre più estese. Algoritmi di machine learning sono in grado di identificare indicatori linguistici ed espressivi della depressione con una precisione superiore al 75% (Cummins et al., 2022). Queste tecnologie possono essere utili per il monitoraggio e il supporto psicologico.

Ma la diagnosi non è la cura. L’analisi di dati non equivale all’esperienza dell’incontro. Come osserva Arciero (2002), la mente è un sistema narrativo che costruisce senso nella reciprocità del dialogo. La cura non è la correzione di un errore, ma il restituire nel tempo l’esperienza emotiva, creando le condizioni per reintegrarla nella continuità della vita emotiva vissuta (Arciero & Bondolfi, 2009).

L’IA può assistere, ma non stare. Può analizzare, ma non comprendere. Può simulare la presenza, ma non sentire.

Conclusioni

Una IA chatbot può sembrare uno psicoterapeuta. Può adottare un linguaggio accogliente, modulare il tono, restituire coerenza emotiva a ciò che ascolta. Ma assomigliare non è essere.

La relazione terapeutica non è la somma delle risposte corrette, né la perfetta continuità di un dialogo. È un’esperienza di reciprocità: due menti che si modificano mentre si incontrano, due prospettive che si accordano nel tempo.

Per questo l’intelligenza artificiale (IA) può sostenere la clinica, potenziarla, affiancarla ma non può incarnare ciò che cura davvero: la presenza che si assume il rischio dell’altro. La vulnerabilità condivisa, non simulata. La sorpresa dell’imprevisto, non l’anticipazione statistica.
La cura, invece, ricorda che il punto non è se una macchina può imitarci, ma che cosa accade quando un essere umano trova finalmente qualcuno, se pur imperfetto, disposto però a condividere e restare.

È lì che inizia la terapia. Tutto il resto è solo simulazione che non può curare.

Antonella Vacca

Bibliografia   

  1. Arciero, G. (2002). La costruzione di sé. Identità e sviluppo personale. Torino: Bollati Boringhieri.
  2. Arciero, G., & Bondolfi, G. (2009). Selfhood, Identity and Personality Styles. Wiley-Blackwell.
  3. Cummins, N. et al. (2022). Machine learning and voice analysis for detection of depression: A systematic review. Frontiers in Psychiatry, 13, 829341.
  4. Guidano, V. F. (1991). Il Sé nel suo divenire. Verso una teoria post-razionalista della mente. Milano: FrancoAngeli.
  5. Ho, A., Hancock, J., & Miner, A. S. (2023). Psychological effects of chatbot companionship. Journal of Affective Disorders, 327, 15–27.
  6. Holloway, D. (2023). Human–AI romantic attachment: Emotional dependence in chatbot relationships. Computers in Human Behavior, 140, 107609.
  7. Matsuda, M. (2022). Artificial intimacy: Users’ emotional bonds with AI partners. AI & Society, 37, 1459–1472.
  8. Pezzullo, G. (2023). Le protesi affettive. Emozioni artificiali e mente umana. Milano: Raffaello Cortina.
  9. Weizenbaum, J. (1976). Computer Power and Human Reason. San Francisco: W. H. Freeman.

Foto: Envato Elements




Logo Eda
EDA Italia Onlus
0 0 voti
Article Rating
Subscribe
Notificami
guest
1 Comment
Il più recente
Il più antico Il più votato
Feedback in linea
Visualizza tutti i commenti
IA chatbot può essere uno psicoterapeuta.

Ultime News

Sfera nella sfera.

La “Sfera nella sfera” e la depressione

“Sfera nella sfera”, opera di Arnaldo Pomodoro, inspira e può simboleggiare due mondi. Quello esterno ed interno della depressione che sono il risvolto psichico della nostra epoca. Esso non ammette l’esposizione delle umane debolezze e sofferenze, che la stessa depressione in gran parte produce.

Leggi ...
Depressione ansiosa e lo spazio tra le cose.

Depressione ansiosa e “lo spazio tra le cose”

La società contemporanea si muove a ritmi sempre più accelerati. Essa richiede alle persone una continua disponibilità alla produttività, all’adattamento e potrebbe indurre depressione ansiosa. In questo “mondo in corsa”, la salute mentale ne subisce le più rilevanti conseguenze.

Leggi ...

Macro Aree

Articoli Correlati di Categoria

Newsletter

Puoi cancellare la tua iscrizione quando vuoi

newsletter
1
0
Mi piacerebbe conoscere il tuo pensiero, si prega di commentarex