L'Organizzazione Mondiale della Sanità (OMS) ha rilasciato nuove linee guida sulla gestione e governance dei modelli multi-modali di grandi dimensioni (LMM) – una tecnologia di intelligenza artificiale generativa come ChatGPT, Bard e Bert in rapida crescita e con molte altre applicazioni nel campo della salute.
Gli LMM, capaci di elaborare dati di vario tipo come testi, video e immagini, e di generare output diversificati, si distinguono per la loro capacità di mimare la comunicazione umana, ma anche per la capacità di svolgere compiti per i quali non sono stati esplicitamente programmati.
Questi modelli hanno conquistato la coscienza pubblica nel 2023, diventando le applicazioni adottate più rapidamente nella storia.
Molti i benefici, ma anche molti rischi in agguato. Esistono, infatti, rischi documentati, come la produzione di dichiarazioni false, inesatte, parziali o incomplete, che potrebbero danneggiare le persone che si affidano a tali informazioni per prendere decisioni sanitarie. Inoltre, gli LMM possono essere addestrati su dati di scarsa qualità o viziati da pregiudizi legati a razza, etnia, sesso, identità di genere o età.
Inoltre, come altre forme di IA, gli LMM sono anche vulnerabili ai rischi di cybersecurity, che potrebbero mettere in pericolo le informazioni sui pazienti o l'affidabilità di questi algoritmi e l'erogazione dell'assistenza sanitaria in generale.
In queste linee guida l’OMS ha presentato oltre 40 raccomandazioni indirizzate ai governi, alle aziende tecnologiche e ai fornitori di assistenza sanitaria, per garantire l'utilizzo appropriato degli LMM nel promuovere e proteggere la salute delle popolazioni.
Le linee guida evidenziano anche rischi più ampi per i sistemi sanitari, come l'accessibilità dei modelli LMM più performanti. Gli LMM possono anche incoraggiare un 'bias di automazione' sia tra i professionisti della salute che tra i pazienti, portando a trascurare errori che altrimenti sarebbero stati identificati o a delegare in modo inappropriato scelte difficili alle IA.
“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l'assistenza sanitaria, ma solo se chi le sviluppa, le regola e le utilizza identifica e contabilizza pienamente i rischi associati,” ha affermato il Dr. Jeremy Farrar, Chief Scientist dell’Oms. “Abbiamo bisogno di informazioni trasparenti e politiche per gestire il design, lo sviluppo e l'uso degli LMM per ottenere risultati sanitari migliori e superare le persistenti disuguaglianze nella salute.”
Le nuove linee guida dell'OMS delineano cinque ampie applicazioni degli LMM per la salute, tra cui la diagnosi e la cura clinica, l'uso guidato dal paziente, compiti amministrativi, l'educazione medica e infermieristica, e la ricerca scientifica e lo sviluppo di farmaci.
Per creare LMM sicuri ed efficaci, l'OMS sottolinea la necessità di coinvolgere vari stakeholder: governi, aziende tecnologiche, fornitori di assistenza sanitaria, pazienti e società civile, in tutte le fasi di sviluppo e distribuzione di tali tecnologie, inclusa la loro supervisione e regolamentazione.
Le nuove linee guida includono raccomandazioni per i governi, che hanno la responsabilità primaria di stabilire standard per lo sviluppo e l'impiego degli LMM, e per la loro integrazione e utilizzo a fini di salute pubblica e medica. Ad esempio, i governi dovrebbero:
• Investire in o fornire infrastrutture pubbliche o no-profit, compresa la potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori, che richiedano agli utenti di aderire a principi etici e valori in cambio dell'accesso.
• Utilizzare leggi, politiche e regolamentazioni per garantire che gli LMM e le lor applicazioni in assistenza sanitaria e medicina, a prescindere dal rischio o dal beneficio associato, rispettino obblighi etici e standard sui diritti umani che influenzano, ad esempio, la dignità, l'autonomia o la privacy di una persona.
• Assegnare un'agenzia regolatoria, esistente o nuova, per valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili.
• Introdurre audit obbligatori dell'impatto post-rilascio, anche per la protezione dei dati e dei diritti umani, da parte di terzi indipendenti quando un LMM viene distribuito su larga scala. Le valutazioni dovrebbero essere pubbliche e includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.
Le nuove raccomandazioni per gli sviluppatori di LMM includono la necessità di garantire che:
• Gli LMM non siano progettati solo da scienziati e ingegneri. Gli utenti potenziali e tutti gli stakeholder diretti e indiretti, inclusi i fornitori di assistenza medica, i ricercatori scientifici, i professionisti della salute e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell'IA in un design strutturato, inclusivo e trasparente, con opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l'applicazione IA in considerazione.
• Gli LMM siano progettati per svolgere compiti ben definiti con l'accuratezza e l'affidabilità necessarie per migliorare la capacità dei sistemi sanitari e avanzare gli interessi dei pazienti. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali risultati secondari.