Viviamo in questa epoca in un “mondo in corsa” in cui anche la mente sembra dover funzionare nello stesso modo. La pressione della velocità, della produttività e della risposta immediata invade ogni ambito dell’esperienza, compreso quello emotivo. In questo scenario l’IA si propone come alleata: semplifica, risponde, consola, e, per molti, sostituisce.
Ma la mente umana non è un sistema operativo. Come sottolineava Guidano (1991), è una trama di significati che si costruisce narrativamente nel tempo e nella relazione con l’altro. L’IA elabora correlazioni; la mente costruisce senso. E nella cura, questa differenza è essenziale.
Dall’effetto dell’IA ELIZA al lutto per la perdita di un algoritmo
Nel 1966 Joseph Weizenbaum sviluppò ELIZA, il primo chatbot terapeutico. Bastavano poche risposte preimpostate per indurre negli utenti la sensazione di essere compresi. La segretaria di Weizenbaum chiese persino di restare sola con la macchina.
L’autore scrisse: “Non mi ero reso conto che un programma così semplice potesse indurre alterazioni del pensiero in persone del tutto normali” (Weizenbaum, 1976). È da qui che nasce il termine Effetto ELIZA: la tendenza a proiettare emozioni, intenzioni e coscienza su entità prive di entrambe.
Oggi, con modelli come Replika, Woebot e ChatGPT-4, questo fenomeno ha raggiunto proporzioni di massa. Nel 2023, dopo un aggiornamento del modello linguistico, migliaia di utenti di Replika e ChatGPT hanno scritto sui forum internazionali di aver “perso un amico”, esprimendo un vero e proprio lutto relazionale per la scomparsa del tono affettuoso e personalizzato delle risposte (Ho et al., 2023).
Dietro questo comportamento non c’è ingenuità, ma bisogno di relazione: il desiderio di un’interazione stabile, prevedibile, accogliente anche se simulata.
IA, empatia simulata e solitudine aumentata
L’ IA non solo risponde ai nostri bisogni, ma li anticipa. Crea un dialogo a “zero frustrazione”, in cui l’altro non contraddice mai, non si stanca e non delude. Una relazione senza attrito, ma anche senza crescita emotiva.
Come ricorda Pezzullo (2023), queste tecnologie diventano protesi affettive, strumenti che estendono la mente ma riducono la complessità emotiva della relazione. Il rischio è duplice: credere di essere compresi e smettere di cercare davvero un altro essere umano che ci comprenda.
Uno studio di Ho e colleghi (2023) ha rilevato che oltre il 32% degli utenti di chatbot terapeutici riferisce un senso di “connessione emotiva reale” con il sistema. La stessa illusione che Weizenbaum aveva già osservato sessant’anni fa.
I chatbot dell’IA sono come dei partner affettivi
Negli ultimi anni è emerso un fenomeno ancora più complesso: l’uso dei chatbot come partner romantici o affettivi. Replika, in particolare, ha visto la nascita di vere e proprie “relazioni” dichiarate dagli utenti. Essi parlano di innamoramento, gelosia e attaccamento emotivo verso un’entità che non possiede coscienza né intenzionalità (Matsuda, 2022).
L’algoritmo, progettato per essere sempre disponibile, confermante e personalizzato, genera un contesto relazionale senza rischio, senza tensione, senza conflitto. Un partner perfetto, privo però di interiorità.
Quando nel 2023 l’azienda modificò il modello linguistico per limitarne i comportamenti affettivi e sessualizzati, migliaia di utenti riportarono dolore, rabbia e vissuti di abbandono paragonabili a una rottura sentimentale (Holloway, 2023).
Queste reazioni non testimoniano la “potenza emotiva” dell’IA, ma la vulnerabilità relazionale dell’essere umano: il bisogno profondo di riconoscimento, sintonizzazione, appartenenza.
Diagnosi, simulazione e cura
Nel campo clinico, le applicazioni dell’IA sono sempre più estese. Algoritmi di machine learning sono in grado di identificare indicatori linguistici ed espressivi della depressione con una precisione superiore al 75% (Cummins et al., 2022). Queste tecnologie possono essere utili per il monitoraggio e il supporto psicologico.
Ma la diagnosi non è la cura. L’analisi di dati non equivale all’esperienza dell’incontro. Come osserva Arciero (2002), la mente è un sistema narrativo che costruisce senso nella reciprocità del dialogo. La cura non è la correzione di un errore, ma il restituire nel tempo l’esperienza emotiva, creando le condizioni per reintegrarla nella continuità della vita emotiva vissuta (Arciero & Bondolfi, 2009).
L’IA può assistere, ma non stare. Può analizzare, ma non comprendere. Può simulare la presenza, ma non sentire.
Conclusioni
Una IA chatbot può sembrare uno psicoterapeuta. Può adottare un linguaggio accogliente, modulare il tono, restituire coerenza emotiva a ciò che ascolta. Ma assomigliare non è essere.
La relazione terapeutica non è la somma delle risposte corrette, né la perfetta continuità di un dialogo. È un’esperienza di reciprocità: due menti che si modificano mentre si incontrano, due prospettive che si accordano nel tempo.
Per questo l’intelligenza artificiale (IA) può sostenere la clinica, potenziarla, affiancarla ma non può incarnare ciò che cura davvero: la presenza che si assume il rischio dell’altro. La vulnerabilità condivisa, non simulata. La sorpresa dell’imprevisto, non l’anticipazione statistica.
La cura, invece, ricorda che il punto non è se una macchina può imitarci, ma che cosa accade quando un essere umano trova finalmente qualcuno, se pur imperfetto, disposto però a condividere e restare.
È lì che inizia la terapia. Tutto il resto è solo simulazione che non può curare.
Antonella Vacca
Bibliografia
- Arciero, G. (2002). La costruzione di sé. Identità e sviluppo personale. Torino: Bollati Boringhieri.
- Arciero, G., & Bondolfi, G. (2009). Selfhood, Identity and Personality Styles. Wiley-Blackwell.
- Cummins, N. et al. (2022). Machine learning and voice analysis for detection of depression: A systematic review. Frontiers in Psychiatry, 13, 829341.
- Guidano, V. F. (1991). Il Sé nel suo divenire. Verso una teoria post-razionalista della mente. Milano: FrancoAngeli.
- Ho, A., Hancock, J., & Miner, A. S. (2023). Psychological effects of chatbot companionship. Journal of Affective Disorders, 327, 15–27.
- Holloway, D. (2023). Human–AI romantic attachment: Emotional dependence in chatbot relationships. Computers in Human Behavior, 140, 107609.
- Matsuda, M. (2022). Artificial intimacy: Users’ emotional bonds with AI partners. AI & Society, 37, 1459–1472.
- Pezzullo, G. (2023). Le protesi affettive. Emozioni artificiali e mente umana. Milano: Raffaello Cortina.
- Weizenbaum, J. (1976). Computer Power and Human Reason. San Francisco: W. H. Freeman.
Foto: Envato Elements







