ChatGPT mostra una precisione “impressionante” nel processo decisionale clinico
Un nuovo studio condotto da ricercatori del Mass General Brigham ha scoperto che ChatGPT era accurato circa del 72% nel processo decisionale clinico complessivo, dalla formulazione di possibili diagnosi alla diagnosi finale e alle decisioni sulla gestione dell’assistenza. Il chatbot di intelligenza artificiale del modello LLM (Large Language Model) ha funzionato altrettanto bene sia nelle cure primarie che in quelle di emergenza in tutte le specialità mediche. I risultati del gruppo di ricerca sono pubblicati sul “Journal of Medical Internet Research“.
I ricercatori hanno scoperto che, nel complesso, ChatGPT era accurato al 72% circa e che era il migliore per fare una diagnosi finale, dove era accurato al 77%. Aveva le prestazioni più basse nel fare diagnosi differenziali, dove era accurato solo al 60%. Ed era accurato solo al 68% nelle decisioni di gestione clinica, come capire quali farmaci trattare il paziente dopo essere arrivato alla diagnosi corretta. Altri risultati degni di nota dello studio includono che le risposte di ChatGPT non hanno mostrato pregiudizi di genere e che la sua prestazione complessiva è rimasta stabile sia nell’assistenza primaria che in quella di emergenza.
“ChatGPT raggiunge un’accuratezza impressionante nella presa di decisioni cliniche, aumentando la sua forza man mano che acquisisce più informazioni cliniche a sua disposizione. In particolare, ChatGPT dimostra la maggiore accuratezza nei compiti di diagnosi finale rispetto alla diagnosi iniziale” – affermano i ricercatori.
Leggi il full text dell’articolo:
- Assessing the Utility of ChatGPT Throughout the Entire Clinical Workflow: Development and Usability Study.
Arya Rao, Michael Pang, John Kim, Meghana Kamineni, Winston Lie, Anoop K Prasad, Adam Landman, Keith Dreyer, Marc D Succi.
Journal of Medical Internet Research, 2023; 25: e48659 DOI: 10.2196/48659
Fonte: Mass General Brigham