Il Dottor ChatGPT dà ottimi consigli Logo of esanum https://www.esanum.de

Il Dottor ChatGPT dà ottimi consigli

ChatGTP supera i medici nel fornire consigli empatici e di alta qualità alle domande dei pazienti sulla loro salute. Lo studio suggerisce che i medici che collaborano con tecnologie come ChatGPT potranno rivoluzionare la medicina.

ChatGPT risponde alle domande dei pazienti

Negli ultimi mesi si è parlato molto di come i progressi in ambito di intelligenza artificiale, in particolare i sistemi come ChatGPT, potrebbero essere utilizzati in medicina.
Un nuovo studio pubblicato su JAMA Internal Medicine, condotto dal Dr. John W. Ayers del Qualcomm Institute dell'Università della California San Diego, offre un primo sguardo al ruolo che i  Large Language Models (LLM) potrebbero svolgere in medicina. ChatGPT ha già dimostrato di essere in grado di superare un esame di abilitazione alla professione medica, ma rispondere direttamente alle domande dei pazienti in modo accurato ed empatico è un'altra cosa.
Lo studio ha messo a confronto le risposte scritte dei medici e quelle di ChatGPT a domande reali sulla salute. Un gruppo di professionisti sanitari ha preferito le risposte di ChatGPT nel 79% dei casi e ha giudicato le risposte di ChatGPT di qualità superiore e più empatiche.

ChatGPT pronto per l'assistenza sanitaria?

Nel nuovo studio, il team di ricerca ha cercato di rispondere alla domanda: ChatGPT è in grado di rispondere con precisione alle domande che i pazienti inviano ai loro medici? In caso affermativo, i modelli di intelligenza artificiale potrebbero essere integrati nei sistemi sanitari per migliorare le risposte dei medici alle domande inviate dai pazienti e alleggerire il carico sempre crescente che grava su di loro.
La pandemia di COVID-19 ha accelerato l'adozione dei sistemi di telemedicina. Se da un lato questo ha reso più facile l'accesso alle cure per i pazienti, dall'altro lato i medici sono oggi oberati da una valanga di messaggi elettronici di pazienti in cerca di consigli sulla salute, elemento che ha contribuito a raggiungere gli attuali livelli record di burnout dei medici.

AskDocs per testare ChatGPT in ambito sanitario

Per ottenere un campione ampio e diversificato di domande sull'assistenza sanitaria e di risposte dei medici che non contenessero informazioni personali identificabili, il team si è rivolto a un social media dove milioni di pazienti rivolgono pubblicamente domande sulla loro salute alle quali i medici rispondono: AskDocs di Reddit.
AskDocs è un subreddit con circa 452.000 membri che postano domande e professionisti sanitari verificati inviano risposte. Anche se chiunque può rispondere a una domanda, i moderatori verificano le credenziali degli operatori sanitari e le risposte mostrano il livello di credenziali di chi risponde. Il risultato è un insieme ampio e diversificato di domande di pazienti e di risposte da parte di medici professionisti autorizzati.
Sebbene qualcuno possa chiedersi se gli scambi di domande e risposte sui social media siano un test corretto, i membri del team di ricerca hanno notato che gli scambi rispecchiano la loro esperienza clinica.
Il team ha preso a campione 195 scambi da AskDocs in cui un medico verificato rispondeva a una domanda pubblica. Il team ha fornito la domanda originale a ChatGPT e gli ha chiesto di scrivere una risposta. Un gruppo di tre professionisti sanitari ha valutato ogni domanda e le relative risposte, in cieco rispetto al fatto che la risposta provenisse da un medico o da ChatGPT. Hanno confrontato le risposte in base alla qualità delle informazioni e all'empatia, indicando quale preferivano.

Le risposte di ChatGPT migliori nel 79% dei casi

La ricerca evidenzia che i messaggi di ChatGPT rispondevano con informazioni sfumate e accurate che spesso affrontavano più aspetti delle domande dei pazienti rispetto alle risposte dei medici. Inoltre, le risposte di ChatGPT sono state valutate di qualità significativamente superiore rispetto a quelle dei medici: le risposte di qualità buona o molto buona sono state 3,6 volte superiori per ChatGPT rispetto ai medici (medici 22,1% contro ChatGPT 78,5%). Le risposte erano anche più empatiche: le risposte empatiche o molto empatiche erano 9,8 volte superiori per ChatGPT rispetto ai medici (medici 4,6% contro ChatGPT 45,1%).

ChatGPT per rispondere ai messaggi dei pazienti

Anche se lo studio ha contrapposto ChatGPT ai medici, la soluzione definitiva, secondo gli autori, non è quella in cui il medico viene sostituito da un sistema di intelligenza artificiale. Al contrario, il medico dovrebbe usare ChatGPT per dare una risposta migliore e più empatica ai pazienti. I risultati suggeriscono che strumenti come ChatGPT possono redigere in modo efficiente consigli medici personalizzati di alta qualità da sottoporre alla revisione dei medici.
Secondo gli autori, ChatGPT potrebbe assistere i medici nella gestione dei messaggi di posta elettronica o di altro tipo. Oltre a migliorare il flusso di lavoro, gli investimenti nella messaggistica degli assistenti AI potrebbero avere un impatto sulla salute dei pazienti e sulle prestazioni dei medici. Secondo gli autori è importante che l'integrazione degli assistenti AI nella messaggistica sanitaria avvenga nel contesto di uno studio controllato randomizzato per valutare l'impatto dell'uso degli assistenti AI sui risultati sia per i medici che per i pazienti.  
I ricercatori ritengono inoltre che queste tecnologie potrebbero servire ad insegnare ai medici come ottenere una comunicazione incentrata sul paziente, eliminare le disparità sanitarie di cui soffrono alcuni gruppi di popolazione che spesso cercano assistenza sanitaria tramite la messaggistica, aiutare i medici a fornire cure di qualità superiore e più efficienti.


Fonte: Ayers JW, Poliak A, Dredze M, Leas EC, Zhu Z, Kelley JB, Faix DJ, Goodman AM, Longhurst CA, Hogarth M, Smith DM. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. 2023 Apr 28:e231838. doi: 10.1001/jamainternmed.2023.1838. Epub ahead of print. PMID: 37115527; PMCID: PMC10148230.