L’intelligenza artificiale piomba nell’agenda della politica. Che ci punta molto, ma anche molto la teme. In particolare, in materia di salute, dove i sistemi di “machine learning” sono di uso sempre più comune, e stanno modificando i percorsi diagnostici e terapeutici, le modalità decisionali del Medico e il rapporto Medico-Paziente.
In questi giorni il Garante della Privacy ha pubblicato un decalogo su come realizzare servizi sanitari attraverso sistemi di intelligenza artificiale. E ha raccomandato che il paziente: sia sempre informato su come la macchina influenza la decisione clinica; sia rassicurato sul fatto che dietro le elaborazioni del computer ci sia sempre una supervisione/validazione del personale sanitario; sia tutelato rispetto a potenziali effetti discriminatori della macchina (esempio di un caso avvenuto negli USA: considerare meno gravi i pazienti per le cui malattie la sanità spende di meno). Il governo intanto ha mosso dei passi; da fine 2022 c’è, prodotto dal Consiglio Superiore di Sanità, un documento sui sistemi di Intelligenza artificiale come strumento di supporto alla diagnostica. A redigerlo, un collegio di 13 esperti guidato dal professor Andrea Laghi Direttore UOC Radiologia dell’ospedale Sant’Andrea di Roma. Il documento sottolinea che i sistemi di “artificial intelligence” (AI), prima di essere impiegati in sanità, settore ad “alto rischio”, necessitano di validazione scientifica basata su studi prospettici, possibilmente randomizzati e condotti nel mondo reale, che dimostrino la non inferiorità, o la superiorità, e il buon rapporto costo-efficacia, rispetto al percorso diagnostico e decisionale convenzionale. Il documento teme e mira ad evitare tra l’altro: “mancati controlli sulla modalità di processare i dati da parte dai sistemi esperti, possibili violazioni della privacy degli utenti, discriminazioni (ad esempio di razza e/o di genere) introdotte dalla programmazione degli algoritmi, assenza di informazioni su sicurezza e riproducibilità nell’uso dei sistemi di AI, mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi, impreparazione del personale sanitario, incomprensione da parte del cittadino di reali benefici e limiti”.
L’uso di informatica per simulare comportamenti intelligenti è diffuso. In radiologia, riduce i tempi per acquisire gli esami, ed offre algoritmi che consentono al medico di identificare noduli, macchie, fratture. In altre branche, consente ad esempio di determinare la probabilità di un evento pericoloso per i pazienti. Ma chi valida i sistemi AI e secondo quali criteri? Se lo sono chiesti l’Unione Europea e anche l’Italia. La commissione di Bruxelles nel 2018 ha pubblicato un Libro bianco e nel 2021 ha formulato linee per creare un mercato europeo di prodotti d’intelligenza artificiale. Nel 2020 Ministero dello Sviluppo ha formulato proposte per produrre ed introdurre sistemi AI. Ma nella clinica è un’altra cosa. L’aumento dei dati disponibili in tutto il mondo è impressionante e ha soppiantato già da qualche anno i vecchi sistemi di “decision making” basati su parametri clinici. È tempo invece di “data mining”, inteso come estrazione di conoscenze nascoste attraverso software che classificano i dati, li clusterizzano in gruppi omogenei, li elaborano secondo regole di associazione, li pesano con algoritmi predittivi ed effettuano analisi “what if”. Di più: è cambiata l’ingegneria delle “reti neurali” che anziché parametri clinici o indici come variabili utilizzano parametri sofisticati. La capacità di analizzare “big data” ad alta velocità, tuttavia, fin qui può sbaragliare l’occhio ed il ragionamento umano fino a un certo punto. E in ogni caso, nessuno ha spiegato al paziente –osserva il documento del CSS– come fa la macchina a compiere le operazioni, a predirgli un rischio, con quale affidabilità e probabilità.
Il documento del Consiglio Superiore di Sanità chiede che i prodotti AI siano sottoposti a regole rigorose di approvazione e registrazione (marchio CE) e che l’Italia si doti di una struttura di governance dell’AI a cura del Ministero della Salute per i dispositivi medici e AIFA per le cure. Gli utenti andrebbero supportati da infrastrutture informatizzate di data stewardship e data governance, locali, regionali o nazionali; andrebbero disposte Linee Guida nazionali su integrazione e corretto utilizzo dei sistemi di AI nella diagnostica con le società scientifiche; andrebbe istituito un osservatorio al Ministero della Salute, per l’ analisi post-market dei sistemi immessi sul mercato; e andrebbe proposta una formazione universitaria e post-universitaria per migliorare conoscenze e competenze di medici e professionisti sanitari, magari anticipata nei programmi della scuola secondaria superiore e resa accessibile in pillole, anche online, al cittadino.