
L'Organizzazione mondiale della sanità (OMS) chiede cautela nell'uso di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall'intelligenza artificiale (IA), come ChatGPT, che imitano la comprensione, l'elaborazione e la produzione della comunicazione umana.
La fulminea diffusione di questi sistemi e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone.
Per l'OMS è quindi imperativo che i loro rischi siano esaminati attentamente, per migliore l'accesso alle informazioni sanitarie, rendere più agevoli questi strumenti come supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze.
Sebbene l'OMS sia ottimista riguardo un uso appropriato di queste tecnologie per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi è la preoccupazione che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo altrettanto coerente con i LLM. Anche durante l'utilizzo di questi sistemi neurali devono quindi essere applicati i valori di trasparenza, inclusione, impegno pubblico, supervisione e rigorosa revisione dei risultati che verrebbero applicati in qualunque altro campo.
L'adozione precipitosa di sistemi non testati potrebbe portare a errori, anche gravi, da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'IA e quindi minare (o ritardare) i potenziali benefici di tali tecnologie.
Le principali preoccupazioni per un utilizzo sicuro, efficace ed etico di queste tecnologie sono:
• I dati utilizzati per addestrare l'IA: questi possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l'equità e l'inclusione;
• Gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto quelle relative alla salute;
• Gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato precedentemente fornito e gli LLM potrebbero non proteggere i dati sensibili;
• gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico rispetto ai contenuti sanitari affidabili;
• pur impegnandosi a sfruttare le nuove tecnologie, tra cui l'intelligenza artificiale e la salute digitale per migliorare la salute umana, l'OMS raccomanda di mettere in atto politiche per garantire la sicurezza e la protezione dei pazienti.
L'OMS propone che queste preoccupazioni vengano affrontate e che, prima che le LLM si diffondano, venga misurato il rapporto rischio/benefico per l'utilizzo nell'ambito dell'assistenza medico-sanitaria.
L'OMS ribadisce l'importanza di applicare i principi etici e una governance appropriata, come già indicato nelle sue linee guida dedicate all'utilizzo di tutte le intelligenze artificiali nell'ambito della salute.
I 6 principi fondamentali individuati in queste linee guida sono: (1) proteggere l'indipendenza dei progetti; (2) promuovere il benessere , la sicurezza umana e l'interesse pubblico; (3) garantire che questi sistemi siano trasparenti, logici e comprensibili; (4) avere e indicare dei responsabili per quanto concerne l'utilizzo e i risultati dell'IA; (5) garantire inclusività ed equità durante lo sviluppo e l'utilizzo dei sistemi; (6) promuovere un'IA che sia sostenibile e
responsive.