Un recente articolo pubblicato su NEJM tratta un problema emergente legato all’uso dell’intelligenza artificiale (IA) in sanità: il rischio che i medici possano diventare oggetto di sorveglianza algoritmica, con conseguente trasformazione in cosiddetti “lavoratori quantificati” (quantified workers).
Finora il dibattito sull’IA in medicina si è focalizzato su strumenti per migliorare la cura del paziente, ma adesso l’IA può essere applicata anche per monitorare e valutare l’attività clinica, spesso senza il pieno consenso degli interessati. Alcuni strumenti trascrivono e analizzano le conversazioni medico-paziente, altri possono valutare tono, empatia e tempi di risposta alle domande del paziente. Il risultato è che questi algoritmi possono evidenziare “deviazioni dalle linee guida” oppure “bassa efficienza”, parametri che potrebbero essere utilizzati per valutazioni aziendali, rimborsi differenziati o persino per provvedimenti disciplinari, rappresentando un reale rischio per la nostra autonomia professionale.
Inoltre, vi sono implicazioni etiche e legali, in quanto l’IA può interferire con l’uso del giudizio clinico individuale, promuovendo una “conformità algoritmica” e potrebbe essere utilizzata in futuro in contenziosi legali (es. mancato monitoraggio in sala operatoria documentato da log elettronici).
In questo scenario gli autori propongono anche diverse strategie per tutelare i clinici:
• diritto all’informazione: è essenziale che i clinici sappiano quando, come e su quali basi una decisione viene influenzata o determinata da un algoritmo;
• coinvolgimento nella governance: la partecipazione dei clinici allo sviluppo e nella supervisione degli strumenti di IA garantisce l’allineamento con i principi etici della professione medica;
• garanzia di qualità e di privacy, con monitoraggio costante mediante audit regolari e trasparenti.
Gli endocrinologi sono quotidianamente impegnati in un’attività clinica che richiede ascolto, personalizzazione e interpretazione dei dati su base individuale. In questo contesto, l’ipotesi che strumenti di intelligenza artificiale possano valutare la pratica medica in termini di tempo dedicato al paziente, tono delle risposte o aderenza meccanica ai protocolli, solleva preoccupazioni circa il rischio di ridurre la medicina a un processo automatizzato, privandola della componente di ragionamento clinico che ne costituisce l’essenza.
Secondo diversi esperti, l’IA dovrebbe avere un ruolo di supporto al medico e non di sostituzione o sorveglianza. L’impiego di tali strumenti a fini di controllo potrebbe infatti compromettere la fiducia, generare demotivazione nei professionisti e uniformare il comportamento clinico secondo criteri considerati discutibili. Una deriva di questo tipo sarebbe particolarmente rischiosa in settori come l’endocrinologia, dove il dialogo e il follow-up personalizzato rappresentano elementi fondamentali della presa in carico del paziente.
Da più parti emerge l’urgenza di avviare una riflessione approfondita sull’adozione dell’IA in ambito clinico, con particolare attenzione alle implicazioni etiche e legali della cosiddetta “sorveglianza algoritmica”. Gli strumenti digitali possono costituire un alleato prezioso per la cura, ma solo se guidati da principi di equità, autonomia e responsabilità professionale. In caso contrario, si corre il rischio di trasformare la medicina in una pratica standardizzata, disumanizzata e sottoposta a monitoraggio costante.
Per questo motivo, società scientifiche e comunità medica sono chiamate a contribuire attivamente alla definizione delle regole di implementazione dell’IA, garantendo che essa rimanga uno strumento di supporto e non di controllo, sia partecipando attivamente alla definizione delle regole di implementazione dell’IA (affinché sia uno strumento a supporto e non di controllo), sia richiedendo trasparenza sugli algoritmi, sul loro addestramento e sugli scopi reali della raccolta dati, al fine di preservare l’autonomia decisionale del medico e la qualità della relazione di cura.
Bibliografia: Cohen IG, Ajunwa I, Parikh RB. Medical AI and clinician surveillance - The risk of becoming quantified workers. N Engl J Med 2025, 392: 2289-91.