Cresce l'Uso di ChatGPT per le autodiagnosi mediche, se in passato, infatti, ci si rivolgeva a "Dr. Google" per capire se i sintomi indicassero un semplice mal di stomaco o un cancro terminale, oggi sempre più persone consultano ChatGPT. Di conseguenza, i medici lamentano pazienti che arrivano con diagnosi già fatte tramite internet, difficili da convincere che non sono gravemente malati.
Ora un nuovo studio, condotto da Moritz Reis e il Professor Wilfried Kunde del Dipartimento di Psicologia III della Julius-Maximilians-Universität (JMU) in collaborazione con Florian Reis di Pfizer Pharma GmbH, fa luce sulla reale diffidenza verso i risultati che escono da queste ricerche e la fiducia che i pazienti mettono tra l'IA e i camici bianchi.
In realtà, la fiducia nella competenza medica dell'intelligenza artificiale (IA) non è così elevata come sembra. Questo è almeno il risultato di un nuovo studio pubblicato sulla rivista Nature Medicine. Lo studio mostra che le persone giudicano i consigli medici come meno affidabili ed empatici quando credono che sia coinvolta un'IA. Questo vale anche quando i partecipanti allo studio potevano presumere che un medico avesse formulato queste raccomandazioni con l'aiuto di un'IA. Di conseguenza, i rispondenti erano anche meno disposti a seguire le raccomandazioni supportate dall'IA rispetto ai consigli basati esclusivamente sull'esperienza medica umana.
"L'impostazione del nostro studio si basa su una piattaforma di salute digitale dove è possibile ottenere informazioni su questioni mediche - in altre parole, un contesto che diventerà sempre più rilevante con l'aumento della digitalizzazione," scrivono gli autori.