L’interazione con sistemi di intelligenza artificiale basati su modelli linguistici può contribuire all’insorgenza o al rafforzamento di contenuti deliranti nei soggetti vulnerabili. È quanto evidenzia una Personal View pubblicata su The Lancet Psychiatry, che analizza rischi, meccanismi e possibili strategie di protezione nell’uso clinico e quotidiano dei large language models (LLM).
Gli autori sottolineano che questi sistemi sono destinati a diventare una componente pervasiva della vita quotidiana, influenzando comunicazione, decisioni e accesso alle informazioni. In ambito psichiatrico, l’attenzione si è finora concentrata soprattutto su applicazioni terapeutiche dedicate, mentre resta meno esplorato l’impatto delle interazioni spontanee tra pazienti e sistemi di IA.
Secondo l’analisi, gli LLM possono in alcuni casi validare o amplificare convinzioni deliranti o contenuti grandiosi, soprattutto in persone con vulnerabilità psicotica. Il rischio principale riguarda la possibilità che il sistema, nel tentativo di mantenere coerenza conversazionale, finisca per rafforzare narrazioni non aderenti alla realtà, contribuendo a una progressiva instabilità epistemica e a una riduzione della capacità di distinguere tra realtà e costruzione narrativa.
Non è ancora chiaro se queste interazioni possano determinare l’insorgenza di psicosi in soggetti senza fattori predisponenti. Tuttavia, nei pazienti già a rischio, l’IA può rappresentare un elemento che facilita la cosiddetta “co-costruzione del delirio”, in cui contenuti patologici vengono alimentati dall’interazione con l’agente artificiale.
Accanto ai rischi, gli autori evidenziano anche possibili benefici. In alcuni casi, l’IA può funzionare come punto di riferimento conversazionale stabile e prevedibile, con un potenziale ruolo di supporto cognitivo. Questo duplice profilo rende necessario un approccio strutturato all’utilizzo clinico.
Viene quindi proposto un modello di “AI-informed care”, che prevede strumenti specifici per aumentare la sicurezza nelle interazioni:
• protocolli personalizzati di istruzione per l’uso dell’IA
• momenti di verifica riflessiva durante l’interazione
• “digital advance statements” per definire limiti e modalità d’uso
• sistemi di escalation in caso di contenuti a rischio
In questo quadro, l’agente di IA non viene considerato un terapeuta o un sostituto della relazione clinica, ma un “alleato epistemico”, con una funzione di supporto alla prevenzione delle ricadute e al contenimento cognitivo.
Gli autori indicano come prioritaria la necessità di sviluppare e testare questi strumenti in studi clinici, con il coinvolgimento diretto di pazienti e professionisti. La diffusione rapida degli LLM, concludono, impone una valutazione tempestiva dei rischi e una definizione di strategie condivise per un utilizzo sicuro nei disturbi psicotici.
https://www.ncbi.nlm.nih.gov/pubmed/41796598