mag252023
Intelligenza artificiale, OMS chiede cautela nell'uso di ChatGPT. Ecco perché
L'Organizzazione mondiale della sanità (OMS) chiede cautela nell'uso di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall'intelligenza artificiale (IA), come ChatGPT, che imitano la comprensione, l'elaborazione e la produzione della comunicazione umana.
La fulminea diffusione di questi sistemi e il crescente uso sperimentale per scopi legati alla salute sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone.
Per l'OMS è quindi imperativo che i loro rischi siano esaminati attentamente, per migliore l'accesso alle informazioni sanitarie, rendere più agevoli questi strumenti come supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze.
Sebbene l'OMS sia ottimista riguardo un uso appropriato di queste tecnologie per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati, vi è la preoccupazione che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo altrettanto coerente con i LLM. Anche durante l'utilizzo di questi sistemi neurali devono quindi essere applicati i valori di trasparenza, inclusione, impegno pubblico, supervisione e rigorosa revisione dei risultati che verrebbero applicati in qualunque altro campo.
L'adozione precipitosa di sistemi non testati potrebbe portare a errori, anche gravi, da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell'IA e quindi minare (o ritardare) i potenziali benefici di tali tecnologie.
Le principali preoccupazioni per un utilizzo sicuro, efficace ed etico di queste tecnologie sono:
• I dati utilizzati per addestrare l'IA: questi possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l'equità e l'inclusione;
• Gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto quelle relative alla salute;
• Gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato precedentemente fornito e gli LLM potrebbero non proteggere i dati sensibili;
• gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico rispetto ai contenuti sanitari affidabili;
• pur impegnandosi a sfruttare le nuove tecnologie, tra cui l'intelligenza artificiale e la salute digitale per migliorare la salute umana, l'OMS raccomanda di mettere in atto politiche per garantire la sicurezza e la protezione dei pazienti.
L'OMS propone che queste preoccupazioni vengano affrontate e che, prima che le LLM si diffondano, venga misurato il rapporto rischio/benefico per l'utilizzo nell'ambito dell'assistenza medico-sanitaria.
L'OMS ribadisce l'importanza di applicare i principi etici e una governance appropriata, come già indicato nelle sue linee guida dedicate all'utilizzo di tutte le intelligenze artificiali nell'ambito della salute.
I 6 principi fondamentali individuati in queste linee guida sono: (1) proteggere l'indipendenza dei progetti; (2) promuovere il benessere , la sicurezza umana e l'interesse pubblico; (3) garantire che questi sistemi siano trasparenti, logici e comprensibili; (4) avere e indicare dei responsabili per quanto concerne l'utilizzo e i risultati dell'IA; (5) garantire inclusività ed equità durante lo sviluppo e l'utilizzo dei sistemi; (6) promuovere un'IA che sia sostenibile e
responsive.