I sistemi di intelligenza artificiale (AI) sono molto promettenti per migliorare l’assistenza medica e i risultati sanitari. Pertanto, è fondamentale garantire che lo sviluppo dell’IA clinica sia guidato dai principi di fiducia e spiegabilità. Misurare le conoscenze mediche dell’IA rispetto a quelle dei medici umani esperti è un primo passo fondamentale nella valutazione di queste qualità. Per raggiungere questo obiettivo, i ricercatori hanno valutato le prestazioni di ChatGPT, un’intelligenza artificiale basata sulla lingua, durante l’esame di licenza medica degli Stati Uniti (USMLE). L’USMLE è un insieme di tre test standardizzati di conoscenza a livello di esperti, richiesti per la licenza medica negli Stati Uniti.

ChatGPT eseguito in corrispondenza o vicino alla soglia di superamento per tutti e tre gli esami senza alcun addestramento o rinforzo specializzato di formatori umani. Inoltre, ChatGPT ha dimostrato un alto livello di concordanza e comprensione nelle sue spiegazioni.

ChatGPT è stato in grado di raggiungere questo risultato senza input specializzati da parte di formatori umani. Inoltre, ChatGPT ha mostrato un ragionamento comprensibile e valide intuizioni cliniche, conferendo maggiore fiducia alla fiducia e alla spiegabilità.

Questi risultati suggeriscono che i modelli linguistici di grandi dimensioni possono avere il potenziale per aiutare con l’educazione medica e, potenzialmente, il processo decisionale clinico.

Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models.
Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, Madriaga M, Aggabao R, Diaz-Candido G, Maningo J, Tseng V.
PLOS Digit Health. 2023 Feb 9;2(2):e0000198. doi: 10.1371/journal.pdig.0000198. PMID: 36812645; PMCID: PMC9931230.

Esprimi il gradimento a questo contenuto
[Totale voti: 0 Media: 0]