Stabilire sicurezza ed efficacia dei sistemi, mettere a disposizione sistemi appropriati per coloro che ne hanno bisogno e promuovere il dialogo tra le parti interessate. Queste alcune delle principali considerazioni normative sull’intelligenza artificiale (AI) applicata alla salute che l’Organizzazione Mondiale della Sanità (OMS) ha pubblicato in un documento. “L’intelligenza artificiale rappresenta una grande promessa per la salute, ma comporta anche gravi sfide, tra cui la raccolta di dati non etici, minacce alla sicurezza informatica e l’amplificazione di pregiudizi o disinformazione”, evidenzia Tedros Adhanom Ghebreyesus, direttore generale dell’Oms. “Questa nuova guida aiuterà i paesi a regolamentare l’AI in modo efficace, per sfruttarne il potenziale, riducendo al minimo i rischi”, scrive.
L’Oms riconosce il potenziale dell’AI nel migliorare i risultati sanitari rafforzando gli studi clinici; migliorando la diagnosi medica, il trattamento, la cura di sé e l’assistenza centrata sulla persona; e integrando le conoscenze, le abilità e le competenze degli operatori sanitari. L’intelligenza artificiale potrebbe essere utile in contesti in cui mancano specialisti medici, ad esempio nell'interpretazione delle scansioni retiniche e delle immagini radiologiche, tra le altre opzioni. Tuttavia, le tecnologie di intelligenza artificiale vengono implementate rapidamente, a volte senza una piena comprensione del loro funzionamento, il che potrebbe avvantaggiare o danneggiare gli utenti finali, compresi gli operatori sanitari e i pazienti, avverte l'Oms. Con la crescente disponibilità di dati sanitari e il rapido progresso delle tecniche analitiche gli strumenti di intelligenza artificiale potrebbero trasformare il settore sanitario, rileva l’Oms.
La pubblicazione delinea 6 aree per la regolamentazione dell’AI per la salute. Per promuovere la fiducia, si sottolinea l’importanza della trasparenza, ad esempio documentando l’intero ciclo di vita del prodotto e monitorando i processi di sviluppo. Per la gestione del rischio, questioni come uso previsto, apprendimento continuo, interventi umani, modelli di formazione e minacce alla sicurezza informatica devono essere tutte affrontate in modo completo, con modelli resi il più semplici possibile. Terzo punto, la convalida esterna dei dati e la chiarezza sull’uso previsto dell’IA aiutano a garantire la sicurezza e a facilitare la regolamentazione. Quarto, l’impegno per la qualità dei dati è fondamentale per garantire che i sistemi non amplifichino distorsioni ed errori. Quinto, le sfide poste da normative importanti e complesse, come il Regolamento generale sulla protezione dei dati (GDPR) in Europa e l’Health Insurance Portability and Accountability Act (HIPAA) negli Stati Uniti d’America, vengono affrontate con particolare attenzione alla comprensione dell’ambito di applicazione della giurisdizione e dei requisiti di consenso, al servizio della privacy e della protezione dei dati. Ultimo punto, promuovere la collaborazione tra gli organismi di regolamentazione, i pazienti, gli operatori sanitari, i rappresentanti del settore e i partner governativi può contribuire a garantire che i prodotti e i servizi rimangano conformi alle normative durante tutto il loro ciclo di vita.