Clinica
Intelligenza artificiale
25/03/2026

Intelligenza artificiale e psicosi, rischio di deliri co-costruiti con i modelli linguistici

Gli LLM possono in alcuni casi validare o amplificare convinzioni deliranti o contenuti grandiosi, soprattutto in persone con vulnerabilità psicotica

ia medicine

L’interazione con sistemi di intelligenza artificiale basati su modelli linguistici può contribuire all’insorgenza o al rafforzamento di contenuti deliranti nei soggetti vulnerabili. È quanto evidenzia una Personal View pubblicata su The Lancet Psychiatry, che analizza rischi, meccanismi e possibili strategie di protezione nell’uso clinico e quotidiano dei large language models (LLM).

Gli autori sottolineano che questi sistemi sono destinati a diventare una componente pervasiva della vita quotidiana, influenzando comunicazione, decisioni e accesso alle informazioni. In ambito psichiatrico, l’attenzione si è finora concentrata soprattutto su applicazioni terapeutiche dedicate, mentre resta meno esplorato l’impatto delle interazioni spontanee tra pazienti e sistemi di IA.

Secondo l’analisi, gli LLM possono in alcuni casi validare o amplificare convinzioni deliranti o contenuti grandiosi, soprattutto in persone con vulnerabilità psicotica. Il rischio principale riguarda la possibilità che il sistema, nel tentativo di mantenere coerenza conversazionale, finisca per rafforzare narrazioni non aderenti alla realtà, contribuendo a una progressiva instabilità epistemica e a una riduzione della capacità di distinguere tra realtà e costruzione narrativa.

Non è ancora chiaro se queste interazioni possano determinare l’insorgenza di psicosi in soggetti senza fattori predisponenti. Tuttavia, nei pazienti già a rischio, l’IA può rappresentare un elemento che facilita la cosiddetta “co-costruzione del delirio”, in cui contenuti patologici vengono alimentati dall’interazione con l’agente artificiale.

Accanto ai rischi, gli autori evidenziano anche possibili benefici. In alcuni casi, l’IA può funzionare come punto di riferimento conversazionale stabile e prevedibile, con un potenziale ruolo di supporto cognitivo. Questo duplice profilo rende necessario un approccio strutturato all’utilizzo clinico.

Viene quindi proposto un modello di “AI-informed care”, che prevede strumenti specifici per aumentare la sicurezza nelle interazioni:

• protocolli personalizzati di istruzione per l’uso dell’IA

• momenti di verifica riflessiva durante l’interazione

• “digital advance statements” per definire limiti e modalità d’uso

• sistemi di escalation in caso di contenuti a rischio

In questo quadro, l’agente di IA non viene considerato un terapeuta o un sostituto della relazione clinica, ma un “alleato epistemico”, con una funzione di supporto alla prevenzione delle ricadute e al contenimento cognitivo.

Gli autori indicano come prioritaria la necessità di sviluppare e testare questi strumenti in studi clinici, con il coinvolgimento diretto di pazienti e professionisti. La diffusione rapida degli LLM, concludono, impone una valutazione tempestiva dei rischi e una definizione di strategie condivise per un utilizzo sicuro nei disturbi psicotici.

https://www.ncbi.nlm.nih.gov/pubmed/41796598 

Se l'articolo ti è piaciuto rimani in contatto con noi sui
nostri canali social seguendoci su:
Oppure rimani sempre aggiornato in ambito farmaceutico iscrivendoti alla nostra Newsletter!
POTREBBERO INTERESSARTI ANCHE
La presenza di un segnale diagnostico nei dati neuropsicologici interpretabili dai LLM e suggeriscono un possibile ruolo di supporto nella valutazione dei pazienti con sospetto iNPH
Studio su Nature Neuroscience presenta il Simons Sleep Project, dataset open con oltre 3.600 notti di registrazioni da dispositivi digitali in 200 bambini con e senza autismo
Un biomarcatore derivato dall’elettroencefalogramma del sonno, sviluppato con tecniche di deep learning, è in grado di integrare informazioni su funzione cognitiva, stato di malattia e rischio di mortalità

Resta aggiornato con noi!
La tua risorsa per news mediche, riferimenti clinici e formazione.

I più letti della settimana
ANNUNCI
Offro lavoro | Friuli-Venezia Giulia
Karmamed, centro sanitario d'eccellenza situato a Gemona del Friuli, ricerca igienista dentale con esperienza da inserire nel nostro team.Requisiti richiesti:-...

EVENTI
Al via la 2° edizione Milan Longevity Summit, un laboratorio urbano per una vita più lunga e in salute
Edra S.p.A sarà media partner della seconda edizione del Milan Longevity Summit che si svolgerà a Milano dal 21 al...

AZIENDE
Eurosets presenta Landing Advance
Immagine in evidenza Eurosets presenta Landing Advance, un sistema completo e intuitivo che apre nuove frontiere nel campo del monitoraggio multiparametrico in cardiochirurgia...

Libreria
Il manuale è stato scritto per colmare una...
La radiologia senologica incarna un ramo dell'imaging di...
Negli ultimi anni, i progressi scientifici e clinici...
Questo manuale offre una panoramica aggiornata sul ruolo...
Questo testo vuole aiutare a comprendere la legge...
Corsi
Algoritmi di medicina di emergenza per le professioni sanitarie

Gli algoritmi relativi alla medicina di emergenza rappresentano una risorsa fondamentale per i professionisti sanitari che, ciascuno nel proprio ambito...


L’INTELLIGENZA ARTIFICIALE NELLA GESTIONE DELLE MALATTIE INFETTIVE

L’impatto dell’Intelligenza Artificiale (AI) e dei Big Data nel settore sanitario è innegabile. L’AI sta rivoluzionando la scoperta di farmaci, la...


Social media in medicina. Al via nuovo corso di formazione Fad

Edra, sempre attenta a garantire una formazione completa e adeguata alle esigenze del sistema salute, ha progettato il nuovo corso...


Progettare la cura con la medicina narrativa. Strumenti per un uso quotidiano

Introdurre la Medicina Narrativa nella progettazione dei percorsi di cura. Integrare la narrazione nel sistema cura e nel sistema persona...