
Ormai la "rivoluzione ChatGPT" è entrata anche nel mondo accademico, con svariati articoli che sono stati scritti con l'aiuto dell'intelligenza artificiale (AI). Il modello di linguaggio neurale ha dimostrato di poter svolgere molti compiti in maniera analoga all'essere umano e questo sta sollevando parecchi interrogativi. La sua alta performance nel campo medico è
dimostrata dal fatto che ha ottenuto punteggi pari o superiori allo standard richiesto dall'United States Medical Licensing Exam (USMLE).
Riguardo l'editoria medica ci si chiede se e come l'AI possa essere considerata un autore.
La paternità editoriale è un concetto importante, in particolare nella ricerca scientifica e medica. È generalmente inteso che un autore è qualcuno che ha apportato un contributo intellettuale significativo a una pubblicazione e che è in grado di assumersi la responsabilità del contenuto della pubblicazione.
L'International Committee of Medical Journal Editors (ICMJE) ha stabilito criteri per la paternità che sono ampiamente accettati nella comunità medica. Secondo l'ICMJE, un autore dovrebbe soddisfare tutti i seguenti criteri:
1. Contribuisca in modo sostanziale all'ideazione o alla progettazione dell'opera; l'acquisizione, l'analisi o l'interpretazione dei dati;
2. rediga il lavoro o aiuti a rivederlo dando contributi intellettuali significativi;
3. dia la sua approvazione ai contenuti da pubblicare;
4. sia parte di aspetti editoriali dell'articolo, garantendo l'accuratezza, l'integrità e la coerenza del testo con i dati in esso contenuti.
Il rispetto di questi criteri implica che un autore abbia svolto un ruolo significativo nella ricerca e abbia contribuito al contenuto intellettuale della pubblicazione.
Interrogato sulla questione lo stesso chatbox ha risposto che, sebbene ChatGPT possa aiutare a generare il testo di articolo, non può dare un contributo intellettuale significativo alla ricerca o assumersi la responsabilità del contenuto della pubblicazione. Pertanto, non può essere considerato da solo autore di un articolo. D'altronde "OpenAI riconosce alcuni limiti del modello linguistico, tra cui quello di fornire risposte plausibili, ma anche errate o insensate". In sostanza il modello non è pronto per essere usato come fonte di informazioni affidabili in assenza di una accurata supervisione e revisione umana, per lo meno nel settore della medicina.
A luglio 2022 una conferenza accademica aveva scartato un pezzo sottoposto che risultava scritto con l'ausilio di ChatGpt. Tuttavia ChatGPT è già stato segnalato come co-autore di 4 articoli nel campo infermieristico - con una dura risposta su
Nature - e, inoltre, una
ricerca ha segnalato come diversi scienziati abbiano confuso il 32% degli abstract generati da ChatGPT come prodotti da esseri umani. Una recente revisione sistematica pubblicata su
MDPI ha analizzato 60 articoli riguardanti l'uso dell'AI nel campo dell'editoria e dell'educazione sanitaria. 51 dei 60 articoli ha riportato vantaggi significativi nell'uso delle forme di linguaggio neurale, la più comune delle quali è l'aumento della rapidità nella scrittura, seguita dai vantaggi nella ricerca sanitaria (analisi di enormi set di dati, generazione di codici, revisioni rapide e concise della letteratura. Preoccupazioni dell'uso di ChatGPT sono emerse in 58 dei 60 articoli con i problemi etici (parzialità, plagio, problemi di copyright e trasparenza, problemi legali, mancanza di originalità, risposte errate, conoscenza limitata e citazioni imprecise) segnalati tra i più comuni.
Gli editori, quindi, stanno iniziando a istituire politiche sull'uso dell'IA nell'editoria accademica. La sensazione generale è che la scrittura assistita dall'intelligenza artificiale nelle pubblicazioni scientifiche sia inevitabile e debba essere gestita piuttosto che vietata, tuttavia non mancano posizioni più rigide.
Per le riviste del gruppo Elsevier (
The Lancet,
Cell,
Annals of Oncology, ecc.) e Springer Nature (
Nature, Nature Medicine, ecc.) infatti, l'AI non può essere un considerata un autore; gli autori sono responsabili dei contenuti generati dall'assistenza AI/LLM/tecnologie simili, inclusa la garanzia che non siano oggetto di un plagio; gli autori devono dichiarare inoltre quali contenuto sono stati generati dalle forme di linguaggio neurale. Le riviste del gruppo JAMA/JAMA Network si allineano su queste posizioni anche se sconsigliano l'uso di queste tecnologie nei paper sottoposti a revisione paritaria.
Il gruppo
Science (Science Magazine, Science Translational Medicine, ecc.), invece, ha tra le posizioni più rigide. Il gruppo fa sapere che per le sue riviste i lavori vanno considerati 'originali' e che il termine "originale sia sufficiente per definire qualunque testo scritto dall'AI come non accettabile". Dunque, le forme di AI non possono essere considerate autori, ma inoltre non sono ammesse alcun uso di testo, figure, immagini e grafici generati dalle tecnologie di intelligenza artificiale a meno che non siano oggetto dello studio stesso.
Le riviste dei gruppi New England Journal of Medicine (NEJM) e dell'American Society of Clinical Oncology (ASCO) non hanno rilasciato linee guida ufficiali sull'uso dell'AI nei loro articoli, richiamandosi in modo generico alle linee guida ICMJE sull'autorship.
Le conseguenze di vasta portata di ChatGPT e delle altre forme di linguaggio neurale possono essere sicuramente descritte come un cambiamento di paradigma nel mondo accademico e nella pratica sanitaria. Una discussione e un monitoraggio continuo sui suoi potenziali benefici, le prospettive future e, soprattutto, i suoi limiti, appare quindi opportuna e necessaria.