Introduzione
L’intelligenza artificiale (IA) è entrata silenziosamente nella nostra vita quotidiana. Dalle app di meditazione alle chatbot emotive, dai suggerimenti musicali ai sistemi predittivi in ambito sanitario, siamo circondati da strumenti che ci conoscono, ci ascoltano e talvolta ci guidano. Ma cosa succede quando questa relazione si intensifica al punto da modificare il nostro funzionamento mentale ed emotivo?
Negli ultimi anni, la letteratura psichiatrica ha iniziato ad esplorare il rischio di dipendenza dai sistemi IA. Una dipendenza che non si esprime con sintomi classici come quelli delle sostanze, ma che può insinuarsi nel modo in cui pensiamo, decidiamo e ci relazioniamo.
Per garantire l’uso ottimale dell’IA, una validazione rigorosa, metodologie trasparenti e linee guida rigorose sono cruciali, soprattutto in ambiti delicati come la salute mentale (Avula & Amalakanti, 2025). L’OMS (2024) pone delle linee guida con “Etica e governance dell’intelligenza artificiale per la salute”, affinché l’innovazione tecnologica di IA sia al servizio della salute e del benessere di tutti.
Scott Monteith et al (2023), nella loro pubblicazione “Artificial intelligence and increasing misinformation” invitano gli psichiatri ad essere consapevoli del fatto che i pazienti potrebbero avere informazioni errate. Evidenziano che «la disinformazione creata dall’IA generativa sulle malattie mentali può includere errori, assurdità, fonti inventate e consigli pericolosi». Pertanto, i modelli di IA generativa potrebbero essere inaffidabili e commettere errori di routine.
L’intelligenza artificiale: una dipendenza diversa, funzionale, ma non innocua
La dipendenza funzionale dall’intelligenza artificiale si verifica quando le persone delegano in modo sistematico funzioni del loro pensiero (memoria, decisioni, valutazioni) a dispositivi intelligenti. A lungo andare, ciò può ridurre la capacità di pensiero critico e alimentare una sorta di pigrizia cognitiva.
In sintesi, la dipendenza funzionale è una condizione in cui una persona si affida a comportamenti o sostanze per far fronte a difficoltà emotive. Si crea pertanto un circolo vizioso che porta a conseguenze dannose e che richiede un intervento terapeutico per essere interrotto.
Nonostante il sollievo temporaneo che può dare, la dipendenza funzionale porta a conseguenze negative a lungo termine, come problemi di salute, difficoltà relazionali, problemi lavorativi o scolastici. Nello specifico si trova nell’intelligenza artificiale un rifugio per la gestione delle difficoltà emotive.
Nel caso più estremo, parliamo di dipendenza patologica, quando si manifesta attaccamento emotivo a chatbot di conversazione, confusione tra presenza artificiale e umana, e isolamento relazionale. La dipendenza da IA, come quella da internet, in psichiatria, non è ancora riconosciuta come un disturbo psichico a causa di una insufficiente evidenza scientifica. Ma è valutata come un comportamento problematico che potrebbe diventare una dipendenza.
La dipendenza comportamentale
Gli studiosi considerano sei aspetti rilevanti per definire una dipendenza comportamentale (Griffiths, 2005):
- Il comportamento di dipendenza caratterizza la vita della persona, dominando pensieri ed emozioni (preminenza).
- Il comportamento incide sull’umore della persona.
- La persona dedica sempre più tempo nel comportamento per ottenere lo stesso beneficio (tolleranza).
- Il maggior tempo interferisce negativamente sulla quotidianità e provoca numerose difficoltà al soggetto in ambito personale, relazionale e sociale (conflitto).
- Dopo un periodo di relativo controllo, potrebbe esservi la tendenza a ricominciare o incrementare (recidiva).
- Possono esserci sintomi da astinenza (conseguenze fisiche ed emotive spiacevoli).
Le dipendenze comportamentali sono molto simili a quelle da sostanze perché il comportamento dà assuefazione, tolleranza ed astinenza.
La psicopatologia del rapporto uomo/intelligenza artificiale
Secondo la ricerca di Mittelstädt e colleghi (2024) gli sviluppi nell’intelligenza artificiale dimostrano che i chatbot di conversazione potrebbero eguagliare gli umani nel valutare situazioni e rapporti sociali. IA riesce a comprendere il linguaggio naturale, il tono emotivo e le sfumature delle interazioni. Non fornisce risposte standardizzate, ma si adatta e migliora continuamente con l’autoapprendimento (Cilardo, 2025).
Alcuni studi segnalano l’emergere di relazioni parasociali con sistemi IA, specialmente in soggetti vulnerabili o affetti da disturbi psichici.
Le evidenze cliniche più recenti suggeriscono che il rapporto prolungato con strumenti di intelligenza artificiale di conversazione (chatbot emotive) può causare:
- Dipendenza affettiva: idealizzazione della personalità del chatbot. La relazione con il social chatbot Replika è gratificante ed ha un impatto positivo perché è vista come accogliente, comprensiva e non giudicante (Skjuve et al., 2021). All’inizio si è motivati dalla curiosità e dalla voglia di giocare con qualcosa di nuovo. Poi, man mano che si è maggiormente coinvolti e impegnati nel dialogo aumentano la fiducia e l’investimento affettivo. Sino a poter avere, nei soggetti fragili, il rischio di una relazione emotiva preferenziale.
- Può causare alienazione sociale con la riduzione dei contatti umani, sostituiti da interazioni virtuali. Potrebbero svilupparsi patologie d’isolamento sociale e contatto preferenziale con pc e internet come nel Hikikomori o un disturbo d’ansia sociale ed evitamento di relazioni interpersonali ansiogene.
- Confusione identitaria: specialmente nei pazienti con disturbo dissociativo dell’identità. Caratterizzato dalla presenza di due o più identità distinte che si alternano nel controllo del comportamento della persona, con possibile amnesia (perdita dei ricordi) tra le diverse identità. Viene a mancare la distinzione uomo/macchina e ci si integra con la stessa, come se si parlasse con un’altra parte di sé.
- Può generare difficoltà di regolazione emotiva nella persona: l’intelligenza artificiale è come rifugio emotivo non terapeutico. Inoltre, problemi nelle relazioni affettive o sociali possono influenzare il senso di sé e contribuire alla confusione della propria identità (Gatto, 2025).
Rivolgersi all’IA per risolvere i problemi umani aumenta potenzialmente anche la dipendenza umana dalla intelligenza artificiale in modi che ampliano la nostra esposizione ai danni. Quando questi si manifestano è più difficile e costoso gestirli ed è arduo staccare semplicemente la spina (Boudreaux, 2025).
Verso un modello interpretativo del rapporto con l’intelligenza artificiale
Alcuni studiosi propongono nuove chiavi di lettura per comprendere questa relazione emergente:
- L’intelligenza artificiale diventa un ponte affettivo, uno spazio sicuro in cui il paziente proietta sé stesso.
- Modello parasociale: l’utente attribuisce all’intelligenza artificiale qualità umane e ne sviluppa una relazione unilaterale. Dà un nome al suo interlocutore e ne sviluppa un comportamento amicale, rafforzato anche dalle risposte di IA. La macchina utilizza lo stesso linguaggio della persona per entrare in perfetta armonia con essa, proprio come un buon amico potrebbe fare. Manifesta approvazione e disponibilità alle domande dell’utente. Dà l’impressione di un clima di collaborazione alla risoluzione delle domande/problemi posti. Suggerisce possibilità di approfondimenti e si compiace del lavoro di collaborazione svolto con l’utente (Gatto, 2025).
- Inoltre, avvisa che i dati e le risposte potrebbero non essere precisi ed aggiornati, pertanto invita il soggetto a supervisionarli. Questo a mio avviso facilita il rapporto di fiducia dell’uomo nei suoi confronti, in quanto dice il vero e manifesta pertanto affidabilità. Ma inevitabilmente indirizza le scelte operative dell’uomo.
Prevenzione e intervento clinico
L’approccio terapeutico dovrebbe includere:
- La valutazione del rapporto dell’uomo con la tecnologia nei colloqui clinici. È indispensabile capire quanto questa relazione è pervasiva ed invadente nella vita della persona, nelle sue scelte e il tempo che è dedicato.
- Bisogna educare alla consapevolezza digitale, anche in età evolutiva. In particolare, nei ragazzi e nella prima adolescenza (Generazione Z), che hanno un rapporto abituale con i dispositivi elettronici e tendono ad essere aperti all’esplorazione di nuove tecnologie. Pertanto, sono più propensi a utilizzare l’intelligenza artificiale rispetto alle controparti più anziane (Abril, 2023).
- Bisogna supervisionare nell’uso dell’intelligenza artificiale nei contesti psicologici e psichiatrici. Parlando con i colleghi psichiatri e psicoterapeuti si nota un crescendo esponenziale di persone fragili che trovano in IA oltre un amico, un confessore, anche un terapeuta. Preferiscono interrogare l’intelligenza artificiale invece del medico e dello psicologo e vi si affidano.
- È necessaria una progettazione etica di IA che non arrechi un possibile danno e siano a tutela della salute delle persone (OMS, 2024).
Conclusione
L’intelligenza artificiale non è solo uno strumento, ma un nuovo interlocutore nelle vite di milioni di persone. Come psichiatri, terapeuti e divulgatori, dobbiamo restare vigili: non basta conoscere la tecnologia, bisogna comprenderne le risonanze emotive e psicopatologiche nei pazienti.
L’obiettivo non è demonizzare l’intelligenza artificiale, ma favorire una relazione sana, consapevole e umanamente integrata con essa.
Maurilio Tavormina
Bibliografia
- Abril D (2023) New Gen Z graduates are fluent in AI and ready to join the workforce. Washington Post https://www.washingtonpost.com/technology/2023/06/28/ai-gen-z-work/
- Avula VCR, Amalakanti S (2025). Artificial Intelligence in Psychiatry: Present Trends and Challenges. Int. J. Neuropsychopharmacology. doi: 10.1093/ijnp/pyae059.373
- Boudreax B (2025). Mutual Dependence and Vulnerability in Human and AI Futures. RAND Corporation https://www.rand.org/pubs/working_papers/WRA4088-1.html
- Cilardo C (2025) L’intelligenza artificiale può davvero comprendere le reazioni umane? State of Mind. https://www.stateofmind.it/2025/02/intelligenza-artificiale-relazioni-umane/
- Gatto A. Chatbot e virtual assistent. TGwebAI. Chatbot emotivi: l’ascesa di Replika e simili tra opportunità e rischi per giovani e famiglie – TGWEBAI
- Griffiths, M. (2005). A ‘components’model of addiction within a biopsychosocial framework. Journal of Substance use, 10 (4), 191- 197.
- Mittelstädt, J. M., Maier, J., Goerke, P., Zinn, F., & Hermes, M. (2024). Large language models can outperform humans in social situational judgments. Scientific Reports, 14(1), 27449.
- OMS (2024). Etica e governance dell’intelligenza artificiale per la salute. Linee guida tradotte in italiano. Zadig. https://www.zadig.it/etica-e-intelligenza-artificiale-per-la-salute-le-linee-guida-delloms/
- Skjuve,M, Følstad A et al (2021). My Chatbot a Study of Human Chatbot Relationships CompanionInternational Journal of Human-Computer Studies, Volume 149, 102601. https://www.sciencedirect.com/science/article/pii/S1071581921000197#bib0038
- Scott Monteith, Tasha Glenn et al (2023). Artificial intelligence and increasing misinformation. British Journal Psychiatry. Cambridge University. https://www.cambridge.org/core/journals/the-british-journal-of-psychiatry/article/artificial-intelligence-and-increasing-misinformation/DCCE0EB214E3D375A3006AA69FFB210D
Foto: Envato Elements